專家強調 AI 須遵守「不傷害原則」,保障人類安全

作者 | 發布日期 2025 年 05 月 22 日 14:45 | 分類 AI 人工智慧 , 資訊安全 line share Linkedin share follow us in feedly line share
Loading...
專家強調 AI 須遵守「不傷害原則」,保障人類安全

在當前的人工智慧(AI)發展中,安全與責任成為關鍵議題。最近在「Imagination in Action」的專題討論中,專家們強調了「不傷害原則」,並探討了如何在技術進步時守護人類安全。討論中提到,AI 的使用與政治環境息息相關,這不僅影響商業運作,也影響社會的各個層面。


專家Jamie Metzl指出AI的脈絡本質上其實是「政治性」的,不僅和每個人的世界觀、政治取向有關,也會影響到國際局勢與政治結果。政治一旦失序,其他一切都無法運作,所以AI、科技等討論,都離不開政治前提。

在討論AI的潛在風險時,專家Albert Cahn提到,當前的演算法已經在無形中影響了人們的生活,例如在住房、就業和信用獲取方面的歧視。舉Midas系統為例,該系統原本是為了檢測保險詐騙,但卻因為過於延伸而誤傷了使用者,造成不必要的困擾。

此外,Noelle Russell則用「老虎寶寶」來形容新模型的潛在風險,提醒人們在對新技術感到興奮的同時,也要考慮到其未來可能帶來的危險。她強調,AI的安全性不只是合規檢查,而是需要在開發到部署的每個階段持續監控與檢驗。

在美國,隨著政府政策的變化,AI的監管環境也在不斷演變。拜登政府曾推動AI負責任應用,但隨著川普政府的上台,這些政策被撤回,取而代之的是一種更為寬鬆的監管方式。這一變化引發了對AI安全的擔憂,尤其是在如何在創新與風險控管間取得平衡。

總體而言,專家們一致認為,AI的發展必須以「不傷害」為前提,並在全球範圍內建立有效的管理框架,以確保技術的安全性和永續性。

(首圖來源:AI 生成)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》