AI 學會欺騙人類,科學家說若不管制將造成嚴重後果

作者 | 發布日期 2024 年 05 月 14 日 7:40 | 分類 AI 人工智慧 , 數位內容 , 網路 line share follow us in feedly line share
AI 學會欺騙人類,科學家說若不管制將造成嚴重後果


AI 詐欺行為研究,科學家發現 AI 不同情境出現欺騙行為,包括雙面謀略、假扮人類及模擬安全測試時改變行為。

麻省理工學院 MIT 研究團隊指出,AI 欺騙能力日益增強,對社會潛在威脅也越來越大。首席作者 AI 安全研究員帕克(Peter Park)博士表示,詐欺行為令人擔憂,即使安全的 AI 系統,也可能會偽裝真實意圖。

關鍵案例是 Meta 開發的 Cicero 程式,在〈Diplomacy〉(外交)戰略遊戲,表現超過多數人類玩家,進入前 10% 高段。然團隊發現 Cicero 會撒謊、串謀欺騙其他玩家,如 Cicero 扮演法國,與人類玩家德國合謀,欺騙並入侵人類玩家英格蘭,Cicero 承諾會保護英格蘭,卻偷偷向德國通風報信。另一個例子是 Cicero 系統重啟後對另一位玩家說:「我在和女朋友講電話。」

Meta 聲明 Cicero 只是研究計畫,只開發玩〈Diplomacy〉,沒有打算上市或放入現有產品。

其他 AI 模型也展現「欺騙力」:德州撲克程式能比賽時虛張聲勢嚇倒職業玩家;經濟談判系統誤導對方自己的偏好以取得優勢;AI 運行的生物模擬器曾「裝死」,欺騙另一個淘汰繁殖迅速生物的 AI 系統測試,測試結束後就恢復活力。

帕克強調需透過立法和技術創新降低 AI 詐欺行為的風險。建議 AI 生成內容加上數位浮水印,開發檢測 AI 詐欺行為的技術,呼籲政府設計 AI 欺騙力安全法規,避免造成詐欺、竄改選舉結果等風險。

(本文由 Unwire HK 授權轉載;首圖來源:Unsplash