滅絕人類接管社會?專家描繪 AI 末日景象

作者 | 發布日期 2023 年 06 月 12 日 8:50 | 分類 AI 人工智慧 , 科技政策 , 資訊安全 line share follow us in feedly line share
滅絕人類接管社會?專家描繪 AI 末日景象


全球人工智慧(AI)領域專家日前連署聲明,警告 AI 技術造成「滅絕風險」,雖然有專家認為有點跨張,但也承認 AI 確實可能對錯誤訊息散播、影響人類行為思考和剝奪工作機會等方面,造成人類社會風險。

全球超過數百位人工智慧產業的領袖於非營利組織「人工智慧安全中心」(Centre for AI Safety)網站發表聲明,只有短短一句話,稱應付AI的滅絕人類風險,應是「與應付疫情和核戰同層級的全球優先要務」。

參與聲明連署的專家有開發聊天機器人ChatGPT的OpenAI執行長阿特曼(Sam Altman),以及譽為「人工智慧教父」的辛頓(Geoffrey Hinton)等重量級人物。

這種「AI末日」警告,讓人聯想到AI機器人接管人類社會的科幻情節,但專家指出,現實可能沒這麼戲劇化,而是更緩慢的過程,造成破壞也可能不是核彈,而是社會基礎逐步惡化。

加州大學柏克萊分校(UC Berkeley)網路安全中心AI安全計畫主任紐曼(Jessica Newman)表示,她不擔憂AI本身,危險的是人們可能把AI用在有害地方,或把本質並不精確的AI系統,整合進越來越多社會領域,最終導致傷害。

AI助長錯誤訊息

英國衛報(The Guardians)報導,專家指目前AI發展可能有幾項具體傷害。之一是錯誤與假訊息傳播。

AI革命已在許多領域發展一段時間,如基於「機器學習」打造的演算法,為社群媒體的蓬勃發展奠定基礎,但這項技術也被控是延續性別偏見、加劇社會分裂,煽動政治動盪的主因。

專家警告,這些問題隨著人工智慧發展愈演愈烈,最壞狀況可能會侵蝕我們對真相和有效訊息的理解,並導致更多基於謊言的政治動亂。

數據科學平台Anaconda執行長兼聯合創辦人彼得‧王(Peter Wang)說,這些錯誤可能會自我延續,語言學習模型根據錯誤訊息訓練下,錯誤訊息會為將來模型建立有缺陷資料庫,代表以後模型會放大並永遠受過去模型影響。

許多專家擔憂,這些系統可能用在不當用途。近期網路瘋傳的教宗方濟各身穿名牌白色羽絨衣的AI產生照片,算是較無害的結果;但2022年4月,AI產生烏克蘭總統澤倫斯基(Volodymyr Zelenskiy)宣布投降的影片,可能引發無法挽回的後果。

AI影響人類行為思考

專家也擔憂,AI系統可能對人類行為思考造成負面影響。報導指比利時有名男子因聊天機器人建議自殺身亡,或有聊天機器人建議用戶離開伴侶,或告訴飲食失調的用戶減肥。

加州大學柏克萊分校專家紐曼認為,人們需要檢視大型語言模型影響兩極化和孤立化、孤獨和心理健康已成重大問題的世界的認知程度。

這不代表AI聊天機器人將增加感知並超越用戶,而是編造的語言可能會操縱人們,使他們做出原本不會有的傷害。紐曼說,特別令人擔憂的是,這些語言系統是以廣告營利模式運作,目的是為了操縱用戶行為,盡可能讓用戶長時間留在這平台。

紐曼表示:「如果你正與第一人稱東西交談,而它談論自己的感受和背景,即使不是真的,仍有可能引起人類反應,讓人容易相信它。它讓人們想信任它,把它當成朋友,而不是工具。」

AI剝奪工作引發社會動盪

另一個AI長期擔憂,是人類大量工作機會可能被剝奪。一些研究指出,2025年前,AI將取代人類8,500萬個工作機會,長期取代3億個工作機會。專家警告,AI崛起可能引發大規模失業,以及伴隨的政治動盪。

Anaconda執行長彼得‧王說:「當你失業時該如何生活,美國沒有任何相關體制,這會導致很多破壞和政治動亂。對我來說,這是最具體、最實際的意外後果。」

國際專家集體警告AI的威脅性,反映出對AI產業大多數人仍對這項科技的潛力感到興奮,並非所有專家都持「AI末日」論調,不過更嚴格監管AI工具顯然不可或缺。

紐約大學名譽教授馬庫斯(Gary Marcus)說:「人工智慧絕對有機會幫助科學、醫學和老年照護。」但他也認為:「短期我覺得人類還沒準備好。一路上會受傷害,我們真的需要改善,必須嚴格監管AI。」

(本文由 中央廣播電台 授權轉載;首圖來源:shutterstock)

延伸閱讀: