7 年內(nèi)超級 AI 將問世!OpenAI 宣布:20% 算力投入,4 年內(nèi)控制超級智能

來源: 每日經(jīng)濟新聞 2023-07-06 12:56:03

為了控制、引導(dǎo)超級智能對齊問題,OpenAI 周三(5 日)表示,組建了一支人工智能對齊團隊 Superalignment。同時該團隊也是對 OpenAI 現(xiàn)有工作的補充,可提升 ChatGPT 等產(chǎn)品的安全性,在 4 年內(nèi)解決超級智能對齊問題。

超級智能將是人類發(fā)明的最具影響力的技術(shù)之一,可以幫助我們解決世界上許多難題。但超級智能的巨大力量也可能非常危險,并導(dǎo)致人類失去控制權(quán),甚至滅絕人類。雖然超級智能還很遙遠,但 OpenAI 認為,10 年之內(nèi)就很有可能實現(xiàn)。

目前,OpenAI 還沒有一個明確的解決方案來引導(dǎo)或控制超級人工智能。當(dāng)下可控制的人工智能技術(shù),例如,根據(jù)人類反饋進行強化學(xué)習(xí),依賴于人類監(jiān)督的 AI 能力等。但人類無法可靠地監(jiān)督,比我們聰明多的 AI 系統(tǒng),因此,我們目前的對齊技術(shù)無法擴展到超級智能,需要新的科學(xué)技術(shù)突破。


【資料圖】

20% 算力用來解決 AI 失控問題

為了控制、引導(dǎo)超級智能對齊問題,OpenAI 組建了一支由 Ilya Sutskever(OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家)和 Jan Leike 領(lǐng)導(dǎo)的人工智能對齊團隊—— Superalignment。

同時該團隊也是對 OpenAI 現(xiàn)有工作的補充,可提升 ChatGPT 等產(chǎn)品的安全性,包括非法濫用、經(jīng)濟破壞、虛假信息、偏見和歧視、數(shù)據(jù)隱私和其他可能出現(xiàn)的問題。

他們預(yù)測,超智能 AI(即比人類更聰明的系統(tǒng))可能在這個十年(2030 年前)就會到來,人類將需要比目前更好的技術(shù)來控制超智能 AI,因此需要在所謂的 " 一致性研究 " 方面取得突破,該研究的重點是確保人工智能對人類有益。

根據(jù)他們的說法,在微軟(Microsoft)的支持下,OpenAI 將拿出未來四年所獲算力的 20% 用于解決 AI 失控的問題。此外,該公司正在組建一個新的團隊來組織這項工作,稱為超級一致性團隊。

據(jù)悉,該團隊的目標是創(chuàng)建一個 " 人類級別 " 的 AI 研究人員,然后通過大量的計算能力進行擴展。OpenAI 表示,這意味著他們將使用人類反饋來訓(xùn)練 AI 系統(tǒng),訓(xùn)練 AI 系統(tǒng)來輔助人類評估,然后最終訓(xùn)練 AI 系統(tǒng)進行實際的一致性研究。

OpenAI 的方法

建立一個大致達到人類水平的自動對齊系統(tǒng)。然后,可以使用大量算力來擴展工作,并調(diào)整超級智能。

1、開發(fā)可擴展的訓(xùn)練方法:為了針對人類難以評估的任務(wù)提供訓(xùn)練方法,可以通過人工智能系統(tǒng)來協(xié)助評估,其他人工智能系統(tǒng)(可擴展的監(jiān)督)。此外,OpenAI 希望了解和控制其模型,將監(jiān)督應(yīng)用到無法監(jiān)督的任務(wù)(泛化)上。

2、驗證生成的模型:為了驗證系統(tǒng)的一致性,OpenAI 將自動搜索有問題的行為(穩(wěn)定性)和有問題的內(nèi)部結(jié)構(gòu)(自動可解釋性)。

3、對整個對齊管道進行壓力測試:可以通過故意訓(xùn)練未對準的模型,來測試整個安全流程,并確認技術(shù)檢測到最差的未對準類型(對抗性測試)。

OpenAI 預(yù)計,隨著對超級智能對齊了解越來越多,研究重點將會發(fā)生重大變化,可能會增加全新的研究領(lǐng)域。

未來,會分享更多有關(guān)技術(shù)研究路線圖的信息。

每日經(jīng)濟新聞綜合 OpenAI 官網(wǎng)

每日經(jīng)濟新聞

關(guān)鍵詞:

你可能會喜歡: