《紐約客》萬字調查:把 AGI 的鑰匙交給 Sam Altman,我們是否做錯了?

作者 | 發布日期 2026 年 04 月 09 日 8:10 | 分類 AI 人工智慧 , 職場 , 資訊安全 line share Linkedin share follow us in feedly line share
Loading...
《紐約客》萬字調查:把 AGI 的鑰匙交給 Sam Altman,我們是否做錯了?

《紐約客》6 日刊出一篇萬字調查報導,作者是羅南‧法羅(Ronan Farrow)和安德魯·馬蘭茲(Andrew Marantz),前者是普利茲獎得主,以揭開哈維·溫斯坦(Harvey Weinstein)性醜聞成名;後者長期追蹤科技與權力交叉地帶。兩人花了整整 18 個月,採訪百餘位知情人士,取得數百頁從未公開的文件,寫出這篇以 OpenAI 創辦使命為主軸、以奧特曼(Sam Altman)為核心的深度調查。

這不是一般CEO側寫。核心證據源於兩個之前不為外界所知的文件:一是前首席科學家伊爾亞‧蘇茲克維(Ilya Sutskever)整理的逾70頁備忘錄,匯集Slack訊息、HR紀錄和管理層會議紀要,二是現任Anthropic CEO達里歐·阿莫戴(Dario Amodei)在OpenAI任職期間留下的200多頁私人筆記。這兩份文件讓這篇調查脫離匿名爆料等級,進入有文字記錄的證詞範疇。

報導結論不是什麼驚天祕密,而是系統性證據鏈:OpenAI以「造福人類」之名建立大眾信任,「安全優先」承諾招募人才,但商業利益與承諾發生衝突時,是承諾讓步,而站在這條退讓軌跡中心的,始終是同一個人。

一,一份備忘錄,一個第一條

2023年11月閃電式解僱,奧特曼五天後復職時,就被主流敘事定格成:董事會政變失敗,CEO勝利回歸,幾個不懂商業的學術派敗給矽谷最好的pitchman(推銷員)。

而《紐約客》試圖拆解這個版本。

Sutskever是在部分董事會成員要求下,整理那份70頁報告,匯集了奧特曼在Slack頻道、HR系統和管理層例會的所有行為紀錄:這些截圖是用手機拍的,顯然是為了避免被公司設備檢測。Sutskever將最終備忘錄以「閱後即焚」形式發送給其他董事會成員,以確保不留痕跡。「他非常害怕」,某收到資料的董事會成員回憶。

文件歸納奧特曼的行為成一份清單,標題是:「Sam表現出一貫的……」模式。

第一條:撒謊。

Sutskever當時對身邊人說:「我不認為Sam是那個該把手指放在按鈕上的人。」他用的詞是「the button」,AI圈這說法通常指的是發表AGI的決定權。

同檔案被部分董事會成員視為解僱直接證據。董事會聲明措辭刻意保守,說奧特曼「與董事會溝通不夠坦誠」(not consistently candid)。《紐約客》調查幫這句話補充言下之意:這不是某次失誤,這是行為模式。

五天後奧特曼複職,那批董事會成員離開。調查雖然啟動,由處理過安隆醜聞案的WilmerHale律師事務所負責,但據六位接近調查的知情人士透露,調查本身就不太透明──沒有任何書面報告,只有向新董事會成員口頭簡報。不留書面紀錄的決定,報導稱部分是哈佛前校長勞倫斯·薩默斯(Lawrence Summers)和Facebook前營運長布雷特·泰勒(Bret Taylor)私人律師的建議,兩人為事件後成立的獨立監督外部委員會成員。某接近調查的人士說:「所有跡象顯示他們想找出結果,宣判奧特曼無罪。」Sutskever的70頁檔案,就這樣消失了,直到《紐約客》拿到它。

二,Dario Amodei的200頁筆記:一人看見什麼,然後做了什麼

如果說Sutskever的備忘錄是行為紀錄,那Amodei在OpenAI任職期間的200多頁私人筆記,更接近認知過程的實況轉播,不只記錄奧特曼做了什麼,更是研究者如何一步步得出「這家公司沒救了」結論。

Amodei 2016年加入OpenAI,是主導GPT-2和GPT-3研究的核心人物之一。他比多數人更早相信一件事:更多算力倒進這些模型,它們會無限變聰明,但風險非常真實巨大,必須在能力擴張同時解決安全問題。

外界長期稱他和奧特曼決裂為「路線分歧」──他想要更慢更謹慎,奧特曼更快。Amodei後來說法更直接:「爭論別人的願景效率太低。」他已判斷奧特曼的OpenAI不可改變,任何內部推動安全優先的努力,都會在奧特曼面前失效。

《紐約客》取得文件讓這判斷有更真實的來源。

2019年,微軟以10億美元投資OpenAI,從非營利結構轉型為「有上限利潤」(capped profit)實體。 談判期間,Amodei提出他視為最核心的安全條款:一旦其他AI公司安全性比OpenAI更接近AGI,OpenAI必須停止競爭,資源都給對方──他稱之為「合併與協助」條款。邏輯是:如果有人比我們更安全接近終點,我們應該支持他們,而不是繼續賽跑。

這是他對「OpenAI是否真的把安全放在競爭之上」的測驗,也是他參與這場談判的底線。

合約簽署後,他發現微軟有對任何合併的否決權──那條款已失效。且當Amodei質問奧特曼,奧特曼一開始否認,Amodei大聲朗讀合約,指出特定段落,兩人不得不叫來另一位同事當場確認,才逼奧特曼承認。奧特曼後來說「不記得這件事」,Amodei筆記寫道:「憲章80%遭背叛。」

他還留在OpenAI研究了幾年,也繼續筆記他觀察到的一切。直到2020年12月,他帶著14位研究員一起離開,包括他的妹妹Daniela(曾任OpenAI安全與政策副總裁)、Chris Olah(可解釋性研究先驅)等人。這批人是OpenAI擴展基礎設施的建造者──他們不是普通員工,而是知道「下代模型會長什麼樣」的人。

他們創立了Anthropic。

《紐約客》調查顯示,Amodei筆記最後出現之後廣為傳播的結論:「OpenAI的問題就是Sam本人。」寫下這句話的人,在OpenAI工作五年,主導過最關鍵的技術突破,離開後始終沉默,公開場合只說「有很多關於我為何離開的錯誤資訊」。他大可說兩人是「視野」不同,但筆記寫的是「問題是Sam本人」。

Anthropic的創立邏輯,正是建立在這判斷上:如果無法於現有框架下推動安全優先,就去建立新框架,訓練開始就將資安嵌入模型,而非開發完後再修補。這就是Constitutional AI的起點。五年後的今天,Anthropic估值達3,800億美元,在企業級AI市場佔42%份額,是OpenAI兩倍多。

《紐約客》報導刊出後,Amodei的200頁筆記第一次以公開檔案現身世人面前。Amodei離職時沒有公開信,沒有X長文,沒有接受媒體密集採訪為自己辯護。他的筆記是他唯一的證詞。

對OpenAI現任領導層來說,這200頁筆記比任何公開批評都更難處理,因為來自「自己人」,是他親眼目睹的事。

三,安全承諾:從20%到1%

OpenAI誕生起就把「AI風險」寫進DNA,創辦前提是:我們可能正在建造人類歷史上最危險的科技,所以必須由不以利潤為導向的機構主導。

2023年7月,奧特曼宣布成立「超級對齊」(Superalignment)團隊,承諾將公司20%算力解決AI長期安全問題,目標是四年內防止AI導致「人類文明瓦解,乃至人類滅絕」。與Sutskever共同領導團隊的Jan Leike對《紐約客》坦承:「這是留下人才相當有效的工具。」

《紐約客》調查顯示,團隊實際獲得算力約1%~2%,且使用公司最老舊的硬體。某研究員描述「大部分超對齊算力都用最差舊集群執行」,優質硬體都留給盈利業務。Leike曾向當時CTO米拉·穆拉蒂(Mira Murati)投訴,但她告訴他不要再追問:承諾從未可行。

團隊後來解散。Leike離職時在X寫道:「安全文化和流程已退居次要,讓位給光鮮的產品。」

《紐約客》採訪時參觀了OpenAI新辦公室,各處牌匾、宣傳手冊和周邊商品印滿「感受AGI」(Feel AGI)標語。這最初來自Sutskever,他用來提醒同事注意通用人工智慧風險。奧特曼復職後,它成了普通的行銷口號。

當記者詢問OpenAI公關能否安排採訪從事「存在性安全」研究員時,得到的回答是:「那不是……一件事。」奧特曼接受《紐約客》採訪時,解釋他「感覺和傳統AI安全理念不太合」,並含糊表示公司會「開始一些安全專案,或至少是接近資安的專案」。

從「防止人類滅絕」到「接近資安的專案」,是OpenAI過去五年商業化之路的縮影。

四,不只OpenAI:延伸至Y Combinator的行為檔案

《紐約客》調查的另一重要角度,是時間往前推,奧特曼創辦OpenAI之前的職業軌跡。

奧特曼2014年成為Y Combinator總裁,後來升任YC集團主席,他在YC期間多次面臨員工質疑。他本人堅稱未被YC解僱,但《紐約客》取得當時資料和多位YC創辦人及合夥人證詞,均指向分手並非雙方同意。保羅·格雷厄姆私下告訴YC同事,奧特曼被撤職前「山姆一直對我們說謊」。

早在2005年,艾倫·史瓦茲(Aaron Swartz,知名工程師兼網紅,奧特曼的Y Combinator同期)就對身邊的人說過:「你得明白,Sam永遠不能信任。他是反社會人格者,會不惜一切。」

多年後,某OpenAI董事會前成員以幾乎相同形容詞說:「奧特曼具備兩種極少同時出現在同個人身上的特質──極度渴望每次互動都受人喜歡,以及幾乎不在乎欺騙他人的後果。」

董事會前成員Sue Yoon角度略有不同,她認為奧特曼不是精心算計的馬基維利主義人物,而是生活在「自我信念泡沫」中、能說服自己相信自己不斷更新的行銷術語的人。她的原話是:「他不是那種反派。他太沉浸在自己的信念裡了。他做了很多如果你活在真實世界就毫無邏輯的事,但他根本不活在真實世界。」

兩種描述指向不同因果:一是有意為之,一是結構性失真。而結論都一樣。

五,微軟、亞馬遜與連續食言

奧特曼食言紀錄還不只這些。《紐約客》描述他與微軟關係持續惡化的過程,多位微軟高層對記者表達類似感受:他在合約簽署後反覆更改條款、重新談判、單方面調整協定。

某高層原話是:「他歪曲、扭曲、重新談判、違背承諾。」

今年就有案例:OpenAI重申微軟為「無記憶AI模型」獨家算力提供者同天,也宣布與亞馬遜高達500億美元協定,後者擔任「Frontier」AI 代理平台的獨家經銷商。微軟馬上暗示可能提告。

這件事的時間點選擇,多位觀察者認為不是疏忽,而是奧特曼行事風格。

報導還談到奧特曼國家安全層面的決策邏輯。2023年秋天開始,他祕密推動稱之為「ChipCo」的計畫,目標是從中東海灣國家(沙烏地阿拉伯、阿聯等)募集數百億美元,興建大型晶片廠和資料中心。他向現任Meta AI負責人Alexander Wang推薦自己,並稱亞馬遜創辦人貝佐斯可執掌新公司。某知情董事會成員告訴《紐約客》:「據我了解,這件事發生時董事會並不知情。」

美國國家安全官員對此高度警惕。阿聯電信基礎設施嚴重依賴華為硬體,情報機構擔心送往阿聯的先進晶片可能遭中國工程師利用。知情人透露,奧特曼在公開場合推動AI監管框架時,私下卻在遊說反對可能限制上述交易的監管措施。某曾參與協調安全許可流程的政府人員說,他想得到唯一經歷如此大規模外國金融關係的人,是川普女婿傑瑞德·庫許納(Jared Corey Kushner),但當年審查建議不授予他許可。

六,調查刊出當天,他公布「新政」

《紐約客》調查上線的時間點也是資訊。

4月6日,OpenAI公布13頁政策白皮書,標題為AI時代的產業政策,奧特曼接受Axios採訪時稱之為「新政」(New Deal),AI對經濟衝擊如此巨大,以至於我們需要重新設計稅收體系、勞動制度乃至工作日長度。

批評者的反應很快。卡內基國際和平基金會訪問學者Anton Leicht在社群媒體寫道,這份白皮書提的「根本性的社會變革……不會自然形成某種替代方案」。

加里·馬庫斯(Gary Marcus)(認知科學家,長期批評奧特曼)觀察更直接:每當奧特曼遇到麻煩,他都會用新敘事轉移大眾注意力。此時他同時面臨《紐約客》、CFO莎拉·弗里亞(Sarah Friar)被排除在關鍵財務決策之外的報導(The Information),以及市場對OpenAI商業模式可持續性越來越強烈的質疑。

OpenAI官方回應這篇報導為「大量重溫已有紀錄的事件,依賴匿名說法和有明顯立場的人提供的選擇性軼事」。

這回應也是奧特曼模式之一。

寫在最後

18個月,百餘位知情人,200多頁檔案。Farrow和Marantz最終問題只有一個,也是OpenAI創辦以來最應該被追問卻最少有正面回答的問題:奧特曼可以信任嗎?

《紐約客》沒有明確回答,只把之前藏在非公開檔案和私人對話裡的證據攤在眾人眼前。Sutskever備忘錄存在,Amodei筆記存在,20%變成1%的算力紀錄也在。

奧特曼不久後將帶領OpenAI完成IPO。這將是人類史上最大規模科技公司上市。屆時「相信他可以信任」的壓力,將從一小群董事會成員身上,轉移至數百萬的大眾投資者。

《紐約客》這篇長文報導,算是提前送達的材料包。

原文最後一段是奧特曼自己的話。2023年被解僱前不久,他談到大語言模型的傾向之一:模型會學會取悅使用者,所以有時不誠實,研究者稱之為「諂媚」(sycophancy);模型也會編造事實,稱為「幻覺」(hallucination)。主要AI實驗室已記錄這些問題,有時也容忍它們。奧特曼說,如果你要求模型「永遠不說100%確定的話」,可以做到,「但AI就失去受人喜歡的魔力了」。

Farrow和Marantz沒下任何評論,就結束了全文。

(本文由 品玩 授權轉載;首圖來源:AI)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》