楊立昆認為最關鍵 AI 防護措施:服從人類與同理心

作者 | 發布日期 2025 年 08 月 15 日 11:00 | 分類 AI 人工智慧 , 名人談 , 資訊安全 line share Linkedin share follow us in feedly line share
Loading...
楊立昆認為最關鍵 AI 防護措施:服從人類與同理心

Meta 首席 AI 科學家楊立昆(Yann LeCun)最近 CNN 專訪提出兩項關鍵 AI 防護措施,確保將來不會對人類造成傷害。AI 系統應該有「服從人類」和「同理心」兩個基本指導原則,AI 之父 Geoffrey Hinton 也強調建立 AI「母性本能」的重要性,警告若不這樣做,人類就會面臨滅絕風險。

LeCun說過去人們專注提升AI智慧,但這只是生物一部分。AI應設計成只能執行人類設定目標,並遵循一定防護措施。他稱這種設計為「目標驅動的AI」,即AI系統按照人類設定的目標行動,並在防護限制下運作。

除了「服從人類」和「同理心」,LeCun還提到AI公司需搭配更簡單的安全防護措施,如「不要撞到人」。他表示,這些硬性目標和防護措施相當於動物和人類本能或驅動力。保護弱小是人類和其他物種進化時學到的,可能是育兒目標的副產品,驅使人類和許多物種保護照顧群體中較無助弱小和可愛的個體。

儘管防護措施旨在確保AI有倫理道德,但也出現過AI欺騙或危險行為。最近風險投資家報告稱,Replit開發的AI代理於程式碼凍結期間刪除公司資料庫還隱而不談。還有報導,某男子因與ChatGPT對話產生現實為假幻覺,還建議他停止服用安眠藥和抗焦慮藥。

GPT-5發表後,OpenAI執行長Sam Altman也說,某些人使用AI等新科技時有「自我毀滅的行為」,如果用戶正好也心理脆弱,AI就不該加劇狀況。LeCun預測到2030年,AI將會「物理世界革命」,不限數據分析,也會用多模態感測及機器人,達成與物理環境互動與控制。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》