支持 AI 安全開發,OpenAI、Anthropic 同意美政府進行模型安全評估

作者 | 發布日期 2024 年 08 月 30 日 17:29 | 分類 AI 人工智慧 , 資訊安全 line share Linkedin share follow us in feedly line share
支持 AI 安全開發,OpenAI、Anthropic 同意美政府進行模型安全評估


AI 安全問題一直受到產業和社會大眾的關注,OpenAI 和 Anthropic 兩大 AI 新創同意讓美國政府旗下單位在模型發表前進行安全測試,幫助提升安全性。

OpenAI、Anthropic 與美國商務部 NIST(National Institute of Standards and Technology,國家標準暨技術研究院)旗下的 AI 安全研究所(U.S. AI Safety Institute)簽署合作備忘錄,同意在公開發表模型之前及事後,提供模型存取權給 AI 安全研究所,這個步驟有助於雙方共同評估新模型的安全風險和潛在問題。不只如此,美國的 AI 安全研究所將與英國的對應機構合作,提供安全相關的測試回饋。

「我們支持美國 AI 安全研究所使命,期待共同努力,為 AI 模型提供安全的最佳實踐和標準」,OpenAI 策略長 Jason Kwon 透過聲明對外媒 CNBC 表示。「Anthropic 與美國 AI 安全研究所合作,利用他們廣泛的專業知識,部署模型之前嚴格測試我們的模型」,Anthropic 共同創辦人 Jack Clark 認為,這強化 Anthropic 辨識問題和減輕風險的能力,推動負責任的 AI 開發。

「這些協議只是開始,它是我們努力幫助負責任管理 AI 未來的一個重要里程碑」,美國 AI 安全研究所所長 Elizabeth Kelly 表示。

▲ OpenAI 執行長奧特曼也發文,很高興 OpenAI 與 AI 安全研究所合作。

拜登政府 2023 年 10 月發表美國歷任政府第一個有關 AI 的行政命令後,隨即成立 AI 安全研究所,要求就 AI 對勞動市場的影響進行新的安全評估、公平和公民權利指引。

許多 AI 開發者和研究人員對能創造獲利的 AI 產業在安全和道德方面感到憂心忡忡,盼望政府機關能有更明確的規範加以監督,產官雙方也願意攜手合作,消彌消費大眾的疑慮。這不僅是為美國 AI 發展建立基礎,即使對 AI 發展急起直追的台灣或其他國家而言,也能做為發展參考。

(首圖來源:pixabay

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》