綜合外媒報道,當(dāng)?shù)貢r間6月19日,OpenAI前首席科學(xué)家、聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維(Ilya Sutskever)宣布創(chuàng)立一家名為“安全超級智能”(Safe Superintelligence)的人工智能公司,該企業(yè)旨在開發(fā)比人類更聰明但不危險的人工智能技術(shù)。
OpenAI前首席科學(xué)家、聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維 視覺中國 資料圖
據(jù)彭博社19日報道,自五月中旬蘇茨克維宣布從Open AI離職后,這是他首次透露自己在人工智能領(lǐng)域的新項目。這家企業(yè)另有兩名聯(lián)合創(chuàng)始人,一位是前蘋果公司AI負責(zé)人丹尼爾·格羅斯(Daniel Gross),他因投資多家知名AI初創(chuàng)公司而備受矚目,還有一位是前OpenAI研究員丹尼爾·利維(Daniel Levy),他與蘇茨克維一起在OpenAI訓(xùn)練大型AI模型,建立了良好的聲譽。
去年11月,蘇茨克維與其他OpenAI的董事會成員一道將公司的首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)免職后,被數(shù)百名員工以辭職相威脅,最終奧爾特曼又回到公司繼續(xù)任職。談及與奧爾特曼的關(guān)系時,蘇茨克維只說“很好”,并表示奧爾特曼“大致了解”這項新業(yè)務(wù)。
蘇茨克維表示,“這家公司與眾不同之處在于,它的首款產(chǎn)品將是安全的人工智能,在此之前它不會做其他任何事情”。這個項目的關(guān)鍵是要確定究竟是什么讓一個AI系統(tǒng)比另一個更安全,換句話說,確保它絕對安全。目前蘇茨克維對此語焉不詳,但他表明新公司會嘗試通過將工程技術(shù)的革命性突破融入AI系統(tǒng)來提升安全性,“我們所說的安全是指像‘核安全’那樣的安全,而不是像‘信任和安全’那樣的安全,”他說。
蘇茨克維拒絕透露該公司的投資人和已籌集到的資金數(shù)目。隨著人工智能的不斷發(fā)展,其背后的算法愈發(fā)龐雜,需要大量資金作為其進一步發(fā)展的必要支持。這一經(jīng)濟現(xiàn)實與“安全超級智能”最終目標落地的不確定性,使得“安全超級智能”對投資者來說是一個巨大的賭注,他們將押注蘇茨克維和他的團隊能夠取得突破性進展,并在人工智能領(lǐng)域遙遙領(lǐng)先。不過鑒于創(chuàng)始團隊的背景和人們對這一領(lǐng)域的濃厚興趣,資金籌集將不是問題。
人工智能領(lǐng)域的研究人員幾十年來一直在關(guān)注并探索如何使AI朝著符合人類利益的方向發(fā)展,但如何防止AI系統(tǒng)失控仍是一個缺乏深入探討的問題。蘇茨克維認為從最基本的角度來說,安全的人工智能不會大規(guī)模地危害人類,在達到這一標準之后,它可以基于一些關(guān)鍵價值觀來運行,比如自由、民主和個人權(quán)利。
蘇茨克維說,主導(dǎo)人工智能的龐大語言模型將在“安全超級智能”中發(fā)揮重要作用,但其目標是實現(xiàn)更強大的東西。目前的系統(tǒng)是人們與其對話得到問題的答案后,這一系統(tǒng)流程就告一段落了。而他追求的則是更通用、能力范圍更廣大的系統(tǒng),是一個能夠自主開發(fā)技術(shù)的巨型超級數(shù)據(jù)中心。