
在當前的人工智慧(AI)發展中,安全與責任成為關鍵議題。最近在「Imagination in Action」的專題討論中,專家們強調了「不傷害原則」,並探討了如何在技術進步時守護人類安全。討論中提到,AI 的使用與政治環境息息相關,這不僅影響商業運作,也影響社會的各個層面。
專家Jamie Metzl指出AI的脈絡本質上其實是「政治性」的,不僅和每個人的世界觀、政治取向有關,也會影響到國際局勢與政治結果。政治一旦失序,其他一切都無法運作,所以AI、科技等討論,都離不開政治前提。
在討論AI的潛在風險時,專家Albert Cahn提到,當前的演算法已經在無形中影響了人們的生活,例如在住房、就業和信用獲取方面的歧視。舉Midas系統為例,該系統原本是為了檢測保險詐騙,但卻因為過於延伸而誤傷了使用者,造成不必要的困擾。
此外,Noelle Russell則用「老虎寶寶」來形容新模型的潛在風險,提醒人們在對新技術感到興奮的同時,也要考慮到其未來可能帶來的危險。她強調,AI的安全性不只是合規檢查,而是需要在開發到部署的每個階段持續監控與檢驗。
在美國,隨著政府政策的變化,AI的監管環境也在不斷演變。拜登政府曾推動AI負責任應用,但隨著川普政府的上台,這些政策被撤回,取而代之的是一種更為寬鬆的監管方式。這一變化引發了對AI安全的擔憂,尤其是在如何在創新與風險控管間取得平衡。
總體而言,專家們一致認為,AI的發展必須以「不傷害」為前提,並在全球範圍內建立有效的管理框架,以確保技術的安全性和永續性。
(首圖來源:AI 生成)