最近,OpenAI 再傳離職消息,安全政策顧問及 AGI 準(zhǔn)備團隊負責(zé)人米爾?布倫達奇(Miles Brundage)宣布將離開公司,并透露他所領(lǐng)導(dǎo)的團隊也將解散,成員將被重新分配到其他部門。
布倫達奇在社交媒體平臺 X 上發(fā)布了一篇文章,詳細解釋了自己的決定。他表示,離開 OpenAI 的原因主要是想要擁有更多的獨立性和發(fā)表研究的自由。
值得注意的是,布倫達奇并不是唯一一位高層離職的安全研究者。早在今年5月,OpenAI 就解散了其超級對齊團隊,這個團隊主要負責(zé)人工超級智能的風(fēng)險評估。此后,該團隊的兩位負責(zé)人亞恩?萊克(Jan Leike)和伊利亞?蘇茨克維爾(Ilya Sutsver)也相繼離職。
除此,公司的首席技術(shù)官米拉?穆拉特(Mira Murati)、首席研究官鮑勃?麥格魯(Bob McGrew)以及研究副總裁巴雷特?佐夫(Barret Zoph)等多位高層也在近期相繼離開。
在過去的六年中,布倫達奇一直在 OpenAI 向管理層和董事會提供建議,幫助公司為人工智能的快速發(fā)展做好準(zhǔn)備。他在安全研究方面的貢獻不容小覷,包括引入外部紅隊(external red teaming)機制,這一機制讓外部專家參與檢測 OpenAI 產(chǎn)品的潛在問題。
布倫達奇提到,他與 OpenAI 在研究發(fā)布的限制上存在分歧,覺得這些限制越來越難以接受。他認為,自己在 OpenAI 內(nèi)部的工作已經(jīng)影響了自己的研究客觀性,使他在 AI 政策的未來問題上難以保持公正。他在社交媒體上還提到,OpenAI 內(nèi)部普遍存在一種觀點,那就是 “發(fā)聲的代價很大,只有一些人能夠做到這一點”。
這一系列高管的離職,不僅讓 OpenAI 的未來方向引發(fā)了更多的關(guān)注,也使得外界對其內(nèi)部文化和決策機制產(chǎn)生了更多的疑問。
劃重點:
?? 布倫達奇宣布離開 OpenAI,AGI 準(zhǔn)備團隊也將解散。
?? 他希望能擁有更多研究發(fā)表的自由,反映出與公司在研究限制上的分歧。
?? 最近多位高管相繼離職,外界對 OpenAI 的未來發(fā)展和內(nèi)部文化產(chǎn)生了關(guān)注。

