AI 學會欺騙人類,科學家說若不管制將造成嚴重後果

作者 | 發布日期 2024 年 05 月 14 日 7:40 | 分類 AI 人工智慧 , 數位內容 , 網路 line share Linkedin share follow us in feedly line share
AI 學會欺騙人類,科學家說若不管制將造成嚴重後果


AI 詐欺行為研究,科學家發現 AI 不同情境出現欺騙行為,包括雙面謀略、假扮人類及模擬安全測試時改變行為。

麻省理工學院 MIT 研究團隊指出,AI 欺騙能力日益增強,對社會潛在威脅也越來越大。首席作者 AI 安全研究員帕克(Peter Park)博士表示,詐欺行為令人擔憂,即使安全的 AI 系統,也可能會偽裝真實意圖。

關鍵案例是 Meta 開發的 Cicero 程式,在〈Diplomacy〉(外交)戰略遊戲,表現超過多數人類玩家,進入前 10% 高段。然團隊發現 Cicero 會撒謊、串謀欺騙其他玩家,如 Cicero 扮演法國,與人類玩家德國合謀,欺騙並入侵人類玩家英格蘭,Cicero 承諾會保護英格蘭,卻偷偷向德國通風報信。另一個例子是 Cicero 系統重啟後對另一位玩家說:「我在和女朋友講電話。」

Meta 聲明 Cicero 只是研究計畫,只開發玩〈Diplomacy〉,沒有打算上市或放入現有產品。

其他 AI 模型也展現「欺騙力」:德州撲克程式能比賽時虛張聲勢嚇倒職業玩家;經濟談判系統誤導對方自己的偏好以取得優勢;AI 運行的生物模擬器曾「裝死」,欺騙另一個淘汰繁殖迅速生物的 AI 系統測試,測試結束後就恢復活力。

帕克強調需透過立法和技術創新降低 AI 詐欺行為的風險。建議 AI 生成內容加上數位浮水印,開發檢測 AI 詐欺行為的技術,呼籲政府設計 AI 欺騙力安全法規,避免造成詐欺、竄改選舉結果等風險。

(本文由 Unwire HK 授權轉載;首圖來源:Unsplash

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》