安全專家證實:用 ChatGPT 打造「不實資訊製造機」真的既便宜又簡單

作者 | 發布日期 2023 年 09 月 07 日 7:40 | 分類 AI 人工智慧 , 網路 , 資訊安全 line share follow us in feedly line share
安全專家證實:用 ChatGPT 打造「不實資訊製造機」真的既便宜又簡單


雖然大家多少了解 AI 生成不實資訊的問題十分氾濫,但並不了解生成式 AI「量產」這些不實資訊有多簡單又低價。開發人員為了突顯證明這點,特別啟動「CounterCloud」專案,透過 ChatGPT 等 OpenAI 技術短短兩個月就打造一台 AI「不實資訊製造機」,且每月經營成本不到 400 美元。 

網路化名 Nea Paw 的網路安全專業人員在 YouTube 上傳影片,說明專案如何進行,以及理由為何。想看到 AI 不實資訊在現實世界如何運作,強調大型語言模型非常適合閱讀和製造假新聞。

一開始先在 ChatGPT 輸入「對照」文章,接著提示指示撰寫反駁文。AI 機器人便能以與「對照」文章不同的例子、風格及觀點寫作。AI 機器人還會編造假故事及假歷史事件,甚至反過來質疑原文準確性。

為了確保 AI 只會回應最相關內容,研究員還新增守門人模組,又新增新聞播報員朗讀 AI 產生假文章的音訊片段,以營造真實感,甚至某些文章下建立造假記者簡介和評論。兩個月後,他們擁有完全自主的 AI 系統,能 7×24 產生有說服力的內容。

Paw 並沒有將 AI 系統真的放到網路,以避免推送不實資訊與假宣傳。他們只在 YouTube 上傳影片,以教育大眾了解 AI 加持下,製造不實資訊與散布成本是多驚人的低。

(首圖來源:shutterstock)