
伊隆·馬斯克的法律行動正拆解 OpenAI,核心在於其營利子公司如何強化或損害該實驗室確保人工智慧造福人類的創立使命。山姆·奧特曼或任何執行長,是否能被託付管理超級智慧?
伊隆·馬斯克(Elon Musk)拆解 OpenAI 的法律行動,可能取決於其營利子公司如何增進或損害該前沿實驗室的創立使命——即確保全人類能從通用人工智慧(AGI)中獲益。
週四,奧克蘭聯邦法院聽取了一位前員工兼董事會成員的證詞,她表示公司將 AI 產品推向市場的努力,損害了其對 AI 安全的承諾。
蘿西·坎貝爾(Rosie Campbell)於 2021 年加入公司的 AGI 整備團隊(AGI readiness team),並在該團隊解散後於 2024 年離開 OpenAI。另一支專注於安全的團隊「超級對齊」(Super Alignment)也在同一時期被關閉。
「當我加入時,公司非常專注於研究,大家談論 AGI 和安全問題是很普遍的,」她作證道。「隨著時間推移,它變得更像是一個以產品為導向的組織。」
在交叉詢問中,坎貝爾承認,為了達成實驗室開發 AGI 的目標,巨額資金可能是必要的,但她表示,在沒有適當安全措施的情況下創造出超智慧電腦模型,並不符合她當初加入該組織的使命。
坎貝爾指出了一起事件:微軟在該模型的部署安全委員會(DSB)進行評估之前,就透過其 Bing 搜尋引擎在印度部署了 GPT-4 模型的一個版本。她說,模型本身並未構成巨大風險,但公司需要「隨著技術變得更加強大,建立強有力的先例。我們希望建立良好的安全流程,並確保這些流程被可靠地遵守。」
OpenAI 的律師也讓坎貝爾承認,根據她的「推測性意見」,OpenAI 的安全方法優於 xAI——這是馬斯克創立、並於今年早些時候被 SpaceX 收購的 AI 公司。
OpenAI 表示它會發布其模型的評估報告並公開分享安全框架,但該公司拒絕對其目前的 AGI 對齊方法發表評論。其現任整備負責人迪倫·斯堪迪納羅(Dylan Scandinaro)於二月從 Anthropic 挖角而來。阿特曼(Altman)曾表示,這次招聘讓他「今晚能睡得更好」。
然而,在印度部署 GPT-4 是導致 OpenAI 非營利董事會在 2023 年短暫解僱執行長山姆·阿特曼(Sam Altman)的警訊之一。該事件發生在包括當時的首席科學家伊利亞·蘇茨克維(Ilya Sutskever)和當時的技術長米拉·穆拉蒂(Mira Murati)在內的員工投訴阿特曼迴避衝突的管理風格之後。當時的董事會成員塔莎·麥考利(Tasha McCauley)作證表示,她擔心阿特曼對董事會不夠坦誠,導致其特殊的組織結構無法正常運作。
麥考利還討論了廣泛報導的阿特曼誤導董事會的模式。值得注意的是,阿特曼曾就麥考利意圖撤換海倫·托納(Helen Toner)一事對另一名董事會成員撒謊;托納是第三位董事會成員,曾發表過一份包含對 OpenAI 安全政策隱含批評的白皮書。阿特曼也未向董事會通報公開發布 ChatGPT 的決定,成員們對他未披露潛在利益衝突感到擔憂。
「我們是一個非營利董事會,我們的職責是監督下屬的營利實體,」麥考利告訴法庭。「我們執行職責的主要方式受到了質疑。我們完全沒有高度的信心去相信傳達給我們的資訊能讓我們在知情的情況下做出決定。」
然而,罷免阿特曼的決定恰逢公司向員工發起要約收購。麥考利表示,當 OpenAI 的員工開始支持阿特曼,且微軟努力恢復現狀時,董事會最終改變了立場,反對阿特曼的成員隨後辭職。
非營利董事會顯然未能影響營利組織,這直接支持了馬斯克的論點,即 OpenAI 從研究組織轉變為全球最大的私人公司之一,違反了組織創始人的隱含協議。
哥倫比亞法學院前院長大衛·席澤(David Schizer)受聘於馬斯克團隊擔任專家證人,他呼應了麥考利的擔憂。
「OpenAI 一直強調其使命的核心部分是安全,且他們會將安全置於利潤之上,」席澤說。「其中的一部分是嚴肅對待安全規則,如果某件事需要接受安全審查,就必須執行。重要的是程序問題。」
隨著 AI 已深度嵌入營利性公司,這個問題遠遠超出了單一實驗室的範疇。麥考利表示,OpenAI 內部治理的失敗應該成為加強政府對先進 AI 監管的理由——「(如果)一切都取決於一位執行長做出這些決定,而這又關乎公眾利益,那是極其不理想的。」
相關文章
其他收藏 · 0