“減輕被人工智能滅絕的風(fēng)險(xiǎn),應(yīng)該與流行病和核戰(zhàn)爭(zhēng)等其他大規(guī)模社會(huì)性風(fēng)險(xiǎn)一樣,成為全球優(yōu)先解決的事項(xiàng)?!碑?dāng)?shù)貢r(shí)間5月30日,一份僅有一句話(huà)內(nèi)容的《AI風(fēng)險(xiǎn)聲明》獲得包括OpenAI首席執(zhí)行官Sam Altman、圖靈獎(jiǎng)獲得者“深度學(xué)習(xí)之父”Yoshua Bengio和Geoffrey Hinton超370位AI領(lǐng)域權(quán)威專(zhuān)家聯(lián)合簽名發(fā)布。中國(guó)科學(xué)院自動(dòng)化研究所研究員曾毅、清華大學(xué)教授張亞勤、助理教授詹仙園等中國(guó)學(xué)者也位列其中。
曾毅透露,在這份新聲明正式對(duì)媒體發(fā)布前,他就收到了發(fā)起人人工智能安全中心主任Dan Hendrycks的邀請(qǐng)。出于對(duì)在AI風(fēng)險(xiǎn)認(rèn)知觀(guān)點(diǎn)上的接近,他簽署了這份聯(lián)合聲明。
作為中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理研究中心主任、國(guó)家新一代人工智能治理專(zhuān)委會(huì)委員、聯(lián)合國(guó)教科文組織人工智能倫理實(shí)施高層專(zhuān)家組成員,曾毅長(zhǎng)期專(zhuān)注于類(lèi)腦智能及人工智能倫理與治理研究。他告訴南方財(cái)經(jīng)全媒體記者,公開(kāi)信的目的不是阻礙人工智能的發(fā)展,而“恰恰是在探索人工智能穩(wěn)健發(fā)展的途徑?!彼岢?,探索“可持續(xù)發(fā)展的人工智能”或許是一個(gè)有益的選擇,而逐步提升人工智能真正意義上的智能水平,才能使人工智能技術(shù)真正實(shí)現(xiàn)可持續(xù)發(fā)展。
(資料圖片僅供參考)
非營(yíng)利組織人工智能安全中心(Center for AI Safety)官網(wǎng)發(fā)布《AI風(fēng)險(xiǎn)聲明》
AI潛在風(fēng)險(xiǎn)關(guān)乎全人類(lèi)利益
這種對(duì)AI風(fēng)險(xiǎn)的高調(diào)表態(tài)并非首次。今年 3 月 22 日,生命未來(lái)研究所(Future of Life)向全社會(huì)發(fā)布《暫停人工智能巨模型實(shí)驗(yàn)》公開(kāi)信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停比 GPT-4 更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為 6 個(gè)月。這封公開(kāi)信獲得了馬斯克、約書(shū)亞·本希奧、蘋(píng)果聯(lián)合創(chuàng)始人 Steve Wozniak等上千名研究者和科學(xué)家的公開(kāi)簽名。
曾毅表示,《AI風(fēng)險(xiǎn)聲明》在動(dòng)機(jī)上顯然與《暫停人工智能巨模型實(shí)驗(yàn)》很相關(guān),兩者都是意識(shí)到了目前人工智能發(fā)展過(guò)程中的風(fēng)險(xiǎn)和失控的可能性。不過(guò),二者的應(yīng)對(duì)方式有顯著的差別?!稌和H斯ぶ悄芫弈P蛯?shí)驗(yàn)》號(hào)召通過(guò)暫停能力超越GPT-4的人工智能巨模型的研究,優(yōu)先為人工智能設(shè)計(jì)并實(shí)現(xiàn)安全框架。而這次新的《AI風(fēng)險(xiǎn)聲明》更深度和直接地表達(dá)了簽名者對(duì)人工智能給人類(lèi)帶來(lái)潛在生存風(fēng)險(xiǎn)的擔(dān)憂(yōu)和應(yīng)采取的行動(dòng)。
《AI風(fēng)險(xiǎn)聲明》將人工智能可能帶來(lái)的風(fēng)險(xiǎn)提高到堪比大流行病和核戰(zhàn)爭(zhēng)的程度。曾毅分析,大流行病、核戰(zhàn)爭(zhēng)與人工智能可能給人類(lèi)帶來(lái)的潛在生存風(fēng)險(xiǎn)的共性是波及范圍廣,關(guān)乎全人類(lèi)的利益,甚至是致命性的。
曾毅指出,關(guān)于人工智能對(duì)人類(lèi)造成生存風(fēng)險(xiǎn),有至少兩種可能:一種是對(duì)遠(yuǎn)期人工智能的擔(dān)憂(yōu),另一種是對(duì)近期人工智能的擔(dān)憂(yōu)。針對(duì)遠(yuǎn)期而言,當(dāng)通用人工智能和超級(jí)智能到來(lái)時(shí),由于智力水平可能遠(yuǎn)超過(guò)人類(lèi),超級(jí)智能視人類(lèi)如同人類(lèi)視螞蟻,很多人據(jù)此認(rèn)為超級(jí)智能將與人類(lèi)爭(zhēng)奪資源,甚至危及到人類(lèi)的生存。針對(duì)近期而言,由于當(dāng)代人工智能只是看似智能的信息處理工具,沒(méi)有真正的理解能力,也不是真正的智能,因此會(huì)以人類(lèi)難以預(yù)期的方式犯下人類(lèi)不會(huì)犯的錯(cuò)誤。人工智能既不理解什么是人類(lèi),什么是生死,也不理解什么是生存風(fēng)險(xiǎn),只會(huì)機(jī)械地執(zhí)行某種操作。如果被人惡意利用、誤用和濫用,風(fēng)險(xiǎn)將幾乎難以預(yù)期和控制?!斑h(yuǎn)期人工智能的挑戰(zhàn)我們?nèi)绻麖默F(xiàn)在開(kāi)始研究如何規(guī)避其風(fēng)險(xiǎn)尚有可能應(yīng)對(duì),近期人工智能的這種風(fēng)險(xiǎn)則顯得更為緊迫?!?/p>
部分簽名者經(jīng)歷態(tài)度“大轉(zhuǎn)彎”
ChatGPT的“橫空出世”引發(fā)新一輪人工智能“技術(shù)競(jìng)賽”,另一方面,也有越來(lái)越多的聲音警告強(qiáng)人工智能會(huì)給人類(lèi)帶來(lái)生存風(fēng)險(xiǎn)。
OpenAI首席執(zhí)行官Sam Altman也在《AI風(fēng)險(xiǎn)聲明》簽名。今年5月,他在美國(guó)國(guó)會(huì)聽(tīng)證會(huì)上坦言,自己最擔(dān)心的是 AI 最終會(huì)“對(duì)世界造成重大傷害”,并表示“如果這項(xiàng)技術(shù)出了問(wèn)題,后果可能會(huì)非常嚴(yán)重。”不過(guò),在聽(tīng)證會(huì)上,他并沒(méi)有提出放慢或者暫停推出 AI 產(chǎn)品。
簽署了兩份公開(kāi)信的“深度學(xué)習(xí)之父”Bengio表示自己投身人工智能研究,但如今的狀況卻讓他感到迷茫。他開(kāi)始旗幟鮮明地反對(duì)人工智能的快速發(fā)展,并對(duì)大語(yǔ)言模型在社會(huì)上的廣泛可及性表示擔(dān)憂(yōu),強(qiáng)調(diào)目前缺乏對(duì)這項(xiàng)技術(shù)的審查?!皯?yīng)用GPT-4 的技術(shù)競(jìng)賽創(chuàng)造了一個(gè)有害的循環(huán)?!?/p>
另一位“深度學(xué)習(xí)之父”Hinton對(duì)人工智能的態(tài)度同樣經(jīng)歷了“大轉(zhuǎn)彎”。他此前在谷歌效力近十年,于今年2月離開(kāi)谷歌“以便更自由地談?wù)撊斯ぶ悄艿奈kU(xiǎn)”。離職前,他擔(dān)任谷歌副總裁兼工程研究員。談及轉(zhuǎn)變想法的原因,Hinton表示,人工智能系統(tǒng)從大量數(shù)據(jù)中學(xué)到意想不到的行為,可以變得比人更聰明,“我以為還有30到50年甚至更長(zhǎng)的時(shí)間。顯然,我不再這么認(rèn)為了。”
近期人工智能風(fēng)險(xiǎn)更為緊迫
有批評(píng)者提出,討論“想象中的風(fēng)險(xiǎn)”會(huì)轉(zhuǎn)移人們對(duì)算法偏見(jiàn)、預(yù)測(cè)性監(jiān)管等現(xiàn)實(shí)問(wèn)題的注意力。作家兼未來(lái)學(xué)家Daniel Jeffries認(rèn)為,“存在人工智能風(fēng)險(xiǎn)是一種目前不存在的幻想,試圖解決明天的想象問(wèn)題完全是浪費(fèi)時(shí)間。解決今天的問(wèn)題,明天的問(wèn)題就會(huì)解決?!?/p>
曾毅認(rèn)為,恰恰是針對(duì)近期人工智能的擔(dān)憂(yōu),才是更緊迫、更需要人類(lèi)關(guān)心的。特別是近期的人工智能進(jìn)展使得人工智能系統(tǒng)能夠利用互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)與信息,生成式人工智能產(chǎn)生的合成虛假信息極大降低了社會(huì)信任,網(wǎng)絡(luò)通信又已使萬(wàn)物互聯(lián),使相關(guān)風(fēng)險(xiǎn)在呈世界規(guī)模地放大。這種情況就極有可能威脅到人類(lèi)的生存。如果人工智能可以利用人類(lèi)的弱點(diǎn)對(duì)人類(lèi)的生存造成致命危機(jī),例如利用和加劇人類(lèi)之間的敵對(duì)和仇視、偏見(jiàn)和誤解,致命性自主人工智能武器對(duì)人類(lèi)脆弱生命的威脅,甚至不需要達(dá)到通用人工智能的階段就有可能對(duì)人類(lèi)造成生存風(fēng)險(xiǎn)。
“(兩份聲明的)目的都不是阻礙人工智能的發(fā)展,恰恰是在探索人工智能穩(wěn)健發(fā)展的途徑?!痹阏J(rèn)為,重視和管控人工智能的安全風(fēng)險(xiǎn)不是阻礙人工智能的發(fā)展與應(yīng)用,而是確保人工智能技術(shù)穩(wěn)健發(fā)展。人工智能無(wú)疑是社會(huì)進(jìn)步的推進(jìn)器,然而這并不意味著人工智能沒(méi)有潛在風(fēng)險(xiǎn)或者是由于最大化人工智能益處的需求,就可以忽略人工智能的潛在風(fēng)險(xiǎn)。絕大多數(shù)人發(fā)展人工智能的愿景是用人工智能造福人類(lèi),而并非是給人類(lèi)帶來(lái)風(fēng)險(xiǎn)甚至是生存風(fēng)險(xiǎn),因此,絕大多數(shù)人有權(quán)利知道人工智能的潛在風(fēng)險(xiǎn)。
人工智能技術(shù)應(yīng)實(shí)現(xiàn)可持續(xù)發(fā)展
面對(duì)浪潮,該從哪里落腳?
曾毅表示,《AI風(fēng)險(xiǎn)聲明》首先應(yīng)引起共鳴的是人工智能的研發(fā)者,通過(guò)研制和發(fā)布人工智能安全解決方案解決盡可能多的安全風(fēng)險(xiǎn)隱患。其次,最大限度地提升人工智能所有利益相關(guān)方對(duì)人工智能安全隱患的意識(shí),包括但不限于研發(fā)者、使用與部署者、政府與公眾、媒體等,讓人工智能的所有利益相關(guān)方都成為給人工智能穩(wěn)健發(fā)展保駕護(hù)航的參與者。再次,對(duì)于人工智能給人類(lèi)造成生存風(fēng)險(xiǎn)的各種可能,要開(kāi)展充分的研究、極限與壓力測(cè)試,以最大限度地降低這種風(fēng)險(xiǎn)。解決人工智能給人類(lèi)帶來(lái)的生存風(fēng)險(xiǎn)問(wèn)題,人工智能倫理安全的問(wèn)題需要建立全球協(xié)作機(jī)制,共享人工智能紅利的同時(shí),需要全球共護(hù)安全。
“少數(shù)人很難改變趨勢(shì),但少數(shù)人首先站出來(lái)提升公眾的意識(shí),最終參與改變現(xiàn)狀的就會(huì)是多數(shù)人?!痹闾嵝训?,人工智能的研發(fā)者有義務(wù)確保人工智能不給人類(lèi)帶來(lái)生存風(fēng)險(xiǎn),至少要通過(guò)人工智能的各種利益相關(guān)方最小化這種風(fēng)險(xiǎn)的可能性。
曾毅此前曾在多個(gè)場(chǎng)合提出,“可持續(xù)發(fā)展的人工智能”或許是一個(gè)有益的選擇。他解釋?zhuān)翱沙掷m(xù)發(fā)展的人工智能”一方面意味著應(yīng)當(dāng)使人工智能作為賦能技術(shù)促進(jìn)全球可持續(xù)發(fā)展目標(biāo)的實(shí)現(xiàn),另一方面意味著應(yīng)當(dāng)確保人工智能技術(shù)的可持續(xù)性。他觀(guān)察到,目前這方面的努力主要聚焦于高利潤(rùn)高回報(bào)的領(lǐng)域如教育和健康,但保護(hù)生物多樣性、減緩氣候變暖、促進(jìn)公平公正等真正關(guān)乎人類(lèi)未來(lái)的議題領(lǐng)域,受到人工智能技術(shù)的關(guān)注仍然較少。
曾毅還提醒,并不是人工智能應(yīng)用于可持續(xù)發(fā)展目標(biāo)的方向就是真正在推動(dòng)可持續(xù)目標(biāo)的實(shí)現(xiàn),因?yàn)榧夹g(shù)還有可能在這些領(lǐng)域帶來(lái)負(fù)面影響。例如,在教育領(lǐng)域需要注意人工智能的應(yīng)用應(yīng)尊重學(xué)生隱私,并確保不對(duì)學(xué)生的身心產(chǎn)生負(fù)面影響。
曾毅認(rèn)為,逐步提升人工智能真正意義的智能水平,才能使人工智能技術(shù)真正實(shí)現(xiàn)可持續(xù)發(fā)展?!叭斯ぶ悄懿粦?yīng)停留在‘看似智能的信息處理’的階段,不應(yīng)當(dāng)滿(mǎn)足于‘絕大多數(shù)情況比人好’,否則很多時(shí)候會(huì)犯人類(lèi)不犯的錯(cuò)誤。”
(文章來(lái)源:21世紀(jì)經(jīng)濟(jì)報(bào)道)
標(biāo)簽: