鳳凰網(wǎng)科技訊 《AI前哨》北京時(shí)間5月23日消息,ChatGPT開(kāi)發(fā)商O(píng)penAI CEO薩姆·阿爾特曼(Sam Altman)上周在美國(guó)國(guó)會(huì)作證時(shí)坦言,人工智能(AI)會(huì)對(duì)世界造成重大傷害,并呼吁加強(qiáng)AI監(jiān)管。
OpenAI CEO阿爾特曼
【資料圖】
美國(guó)當(dāng)?shù)貢r(shí)間周一,阿爾特曼聯(lián)合OpenAI總裁格雷格·布羅克曼(Greg Brockman)、首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)在OpenAI官方博客上發(fā)布了《超級(jí)智能的治理》的文章,詳細(xì)闡述了他們的監(jiān)管提議。
以下是文章全文:
鑒于我們現(xiàn)在所看到的情況,可以想象的是,未來(lái)十年內(nèi),AI系統(tǒng)將在大多數(shù)領(lǐng)域超過(guò)專家的技能水平,并能夠開(kāi)展與當(dāng)今最大公司之一一樣多的生產(chǎn)活動(dòng)。
OpenAI博文《超級(jí)智能的治理》
就潛在的優(yōu)勢(shì)和劣勢(shì)而言,超級(jí)智能將比人類過(guò)去不得不與之抗衡的其他技術(shù)更強(qiáng)大。我們可以擁有一個(gè)明顯繁榮得多的未來(lái),但我們必須控制風(fēng)險(xiǎn)才能實(shí)現(xiàn)這一目標(biāo)。鑒于我們面臨潛在生存風(fēng)險(xiǎn),我們不能只是被動(dòng)應(yīng)對(duì)。核能是一個(gè)常用的歷史例子,它具有這種特性。合成生物學(xué)是另一個(gè)例子。
我們也必須減輕當(dāng)今AI技術(shù)的風(fēng)險(xiǎn),但超級(jí)智能將需要特殊的對(duì)待和協(xié)調(diào)。
三個(gè)理念
對(duì)于我們來(lái)說(shuō),有許多重要理念能夠幫助我們更好地把握這一發(fā)展方向。在這里,我們列出了我們對(duì)其中三個(gè)理念的初步想法。
首先,我們需要在領(lǐng)先的開(kāi)發(fā)項(xiàng)目之間進(jìn)行一定程度的協(xié)調(diào),以確保超級(jí)智能的發(fā)展以一種既能維護(hù)安全又能幫助這些系統(tǒng)與社會(huì)順利整合的方式進(jìn)行。有很多方法可以實(shí)現(xiàn)這一點(diǎn):世界各地的主要政府可以建立一個(gè)項(xiàng)目,讓許多當(dāng)前努力成為其中的一部分,或者我們可以集體商定(在一個(gè)新組織的支持下,就像下面建議的那樣),將前沿AI能力的增長(zhǎng)速度限制在每年一定比例上。
當(dāng)然,個(gè)別公司應(yīng)該被要求以極高負(fù)責(zé)任的標(biāo)準(zhǔn)行事。
其次,我們很可能最終需要像國(guó)際原子能機(jī)構(gòu)(IAEA)這樣的機(jī)構(gòu)來(lái)開(kāi)展超級(jí)智能工作。任何超過(guò)一定能力(或算力等資源)閾值的工作都需要服從于國(guó)際權(quán)威機(jī)構(gòu),該機(jī)構(gòu)可以檢查系統(tǒng),要求審計(jì),測(cè)試以確定項(xiàng)目是否符合安全標(biāo)準(zhǔn),對(duì)部署程度和安全級(jí)別進(jìn)行限制等等。跟蹤計(jì)算和能源使用可能會(huì)有很長(zhǎng)的路要走,但它給了我們一些希望,相信這個(gè)想法實(shí)際上是可以執(zhí)行的。作為第一步,企業(yè)可以自愿同意開(kāi)始實(shí)施該機(jī)構(gòu)某一天可能要求的要素;第二步,個(gè)別國(guó)家可以實(shí)施。重要的是,這樣一個(gè)機(jī)構(gòu)應(yīng)該把重點(diǎn)放在降低生存風(fēng)險(xiǎn)上,而不是那些留給各個(gè)國(guó)家的問(wèn)題上,比如定義AI應(yīng)該被允許說(shuō)什么。
第三,我們需要讓超級(jí)智能安全的技術(shù)能力。這是一個(gè)開(kāi)放的研究問(wèn)題,我們和其他人都投入了大量的精力。
一般AI不應(yīng)受監(jiān)管
在這個(gè)范圍之外,我們認(rèn)為允許企業(yè)和開(kāi)源項(xiàng)目開(kāi)發(fā)低于重大能力閾值的模型是很重要的,它不需要像我們?cè)谶@里描述的那種監(jiān)管(包括像許可證或?qū)徲?jì)這樣繁重的機(jī)制)。
如今的系統(tǒng)在世界上創(chuàng)造了巨大的價(jià)值,雖然它們確實(shí)存在風(fēng)險(xiǎn),但這些風(fēng)險(xiǎn)的程度與其他互聯(lián)網(wǎng)技術(shù)和社會(huì)上可能采取的方法相當(dāng)。
相比之下,我們所關(guān)注的是超級(jí)智能系統(tǒng),它擁有比目前所創(chuàng)造的任何技術(shù)都強(qiáng)大的能力。我們應(yīng)該小心,不要把類似的標(biāo)準(zhǔn)應(yīng)用到遠(yuǎn)遠(yuǎn)低于這個(gè)標(biāo)準(zhǔn)的技術(shù)上,從而淡化對(duì)超級(jí)智能的關(guān)注。
公眾意見(jiàn)及潛力
但是,對(duì)于最強(qiáng)大系統(tǒng)的治理,以及關(guān)于其部署的決策,必須有強(qiáng)有力的公眾監(jiān)督。我們相信,世界各地的人們應(yīng)該民主地決定AI系統(tǒng)的界限和默認(rèn)設(shè)置。我們還不知道如何設(shè)計(jì)這樣一個(gè)機(jī)制,但我們計(jì)劃對(duì)這一發(fā)展進(jìn)行試驗(yàn)。我們?nèi)匀徽J(rèn)為,在這些廣泛的界限內(nèi),個(gè)人用戶應(yīng)該對(duì)他們所使用AI的行為有很大的控制權(quán)。
考慮到這些風(fēng)險(xiǎn)和困難,我們有必要考慮一下為什么要開(kāi)發(fā)這項(xiàng)技術(shù)。
在OpenAI,我們有兩個(gè)基本原因。首先,我們相信它會(huì)帶來(lái)一個(gè)比我們今天所能想象的更好的世界(我們已經(jīng)在教育、創(chuàng)造性工作和個(gè)人生產(chǎn)力等領(lǐng)域看到了早期的例子)。世界面臨著許多問(wèn)題,我們需要更多的幫助來(lái)解決這些問(wèn)題。這項(xiàng)技術(shù)可以改善我們的社會(huì),每個(gè)人使用這些新工具的創(chuàng)造能力肯定會(huì)讓我們大吃一驚。經(jīng)濟(jì)增長(zhǎng)和生活質(zhì)量的提高將是驚人的。
其次,我們相信,阻止超級(jí)智能的創(chuàng)造具有令人難以置信的風(fēng)險(xiǎn),也是困難的。因?yàn)楹锰幨侨绱司薮螅瑯?gòu)建它的成本每年都在下降,構(gòu)建它的參與者的數(shù)量正在迅速增加,這是我們所走的技術(shù)道路的固有組成部分。阻止它的發(fā)展,需要類似全球監(jiān)督制度這樣的體制,但即使如此也不能保證成功。因此,我們必須確保正確處理這一問(wèn)題。鳳凰網(wǎng)科技《AI前哨》對(duì)此將持續(xù)關(guān)注。(作者/簫雨)
標(biāo)簽:
為什么家里的電器都是直流電 入戶的卻是交流電?
山西潞城:火紅燈籠鬧元宵 張燈結(jié)彩年味濃
廣州疾控緊急通告:到過(guò)重點(diǎn)場(chǎng)所的人員進(jìn)行健康管理
安徽16歲弟弟捐獻(xiàn)造血干細(xì)胞救24歲哥哥
滾動(dòng)