來源:環(huán)球網(wǎng)
2023-04-08 13:45:04
原標(biāo)題:一封聯(lián)名公開信引爆科技圈!AI競(jìng)賽,踩剎車還是踩油門?
來源:環(huán)球時(shí)報(bào)
【環(huán)球時(shí)報(bào)報(bào)道 記者 曹思琦】大型語言模型GPT-4及其相關(guān)的人工智能(AI)技術(shù)應(yīng)用最近在火爆全球的同時(shí),也引起廣泛擔(dān)憂。意大利個(gè)人數(shù)據(jù)保護(hù)局4月6日稱,聊天機(jī)器人ChatGPT的開發(fā)公司OpenAI向意大利當(dāng)局提交補(bǔ)救措施,以解決監(jiān)管機(jī)構(gòu)的擔(dān)憂。上月末,意大利成為全球首個(gè)禁用ChatGPT的國(guó)家后,美國(guó)、德國(guó)、法國(guó)和愛爾蘭等多國(guó)也相繼表達(dá)了當(dāng)前AI技術(shù)“存在風(fēng)險(xiǎn)”的觀點(diǎn)。更讓科技界震動(dòng)的是,一封包括上萬名科技界人士聯(lián)名簽署的公開信呼吁,所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月時(shí)間。
一封聯(lián)名公開信引爆科技圈
人類社會(huì)技術(shù)風(fēng)險(xiǎn)研究機(jī)構(gòu)“生命未來研究所”于3月29日發(fā)布了公開信,呼吁由于“最近AI實(shí)驗(yàn)室陷入了一場(chǎng)失控的競(jìng)賽,只有當(dāng)我們確信AI大模型的影響是積極的并且風(fēng)險(xiǎn)是可控時(shí),才能開發(fā)更強(qiáng)大的AI系統(tǒng)”。這封公開信吸引了包括圖靈獎(jiǎng)得主約書亞·本吉奧、特斯拉創(chuàng)始人埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克以及《人類簡(jiǎn)史》的作者尤瓦爾·赫拉利等上千名科技大佬、人工智能專家和學(xué)者的聯(lián)合簽名。截至目前,該研究所官網(wǎng)顯示已有超過1.3萬人簽署該公開信。
這封公開信所擔(dān)憂的就是以GPT-4大型語言模型為代表的最新AI技術(shù)。GPT-4是由OpenAI公司開發(fā)的人工智能程序,它可以快速生成流暢、準(zhǔn)確和有邏輯的文本,還可以理解和回答各種類型的問題,甚至可以為用戶進(jìn)行創(chuàng)造性和技術(shù)性的寫作。它最著名的衍生應(yīng)用產(chǎn)品就是ChatGPT聊天機(jī)器人,網(wǎng)友使用后普遍感嘆“難以分辨到底是在與AI還是與真人聊天”。
公開信明確提出:“具有人類智能水平的AI系統(tǒng)可能對(duì)社會(huì)和人類帶來極大的風(fēng)險(xiǎn),這一點(diǎn)已經(jīng)得到頂級(jí)AI實(shí)驗(yàn)室的認(rèn)同。”該信呼吁所有人工智能實(shí)驗(yàn)室應(yīng)立即暫停訓(xùn)練比GPT-4更強(qiáng)大的 AI模型,為期至少6個(gè)月。在此期間,公開信建議實(shí)驗(yàn)室和獨(dú)立專家合作,針對(duì)AI的設(shè)計(jì)和開發(fā)建立共享的安全協(xié)議,并由獨(dú)立的外部專家監(jiān)督,確保AI系統(tǒng)“安全、無可置疑”。
目前國(guó)內(nèi)也有知名學(xué)者、業(yè)界人士參與公開信簽名,表達(dá)支持性觀點(diǎn)。中國(guó)社科院研究員段偉文認(rèn)為:“我們有必要通過暫停這種慢科學(xué)策略,使科技的力量在我們可以掌控的節(jié)奏下有序綻放”。清華大學(xué)教授梁正認(rèn)為:“在這個(gè)時(shí)候提出這樣的警示是必要的……人類可以借鑒核武器發(fā)明后簽署核不擴(kuò)散條約的經(jīng)驗(yàn),共同探討提出針對(duì)通用人工智能的治理規(guī)則與防范手段,確保人工智能真正服務(wù)于人類福祉與未來。”
反對(duì)者的聲音也有不少。例如Meta首席技術(shù)官安德魯·博斯沃思認(rèn)為,這封公開信“不僅不現(xiàn)實(shí),而且也不會(huì)有效”。“通常情況下,你必須先了解技術(shù)是如何發(fā)展的,然后才能知道如何保護(hù)和確保它的安全。”力挺AI發(fā)展的比爾·蓋茨也表示,公開信的呼吁不會(huì)有效,“我不認(rèn)為暫停發(fā)展AI就能解決問題。很顯然AI的進(jìn)步有著巨大的益處,我們需要做的是找出那些棘手的領(lǐng)域”。
信任危機(jī)源自“算法黑箱”
面對(duì)AI競(jìng)賽的一路狂飆,人類究竟應(yīng)該“踩剎車”還是“踩油門”?安遠(yuǎn)AI創(chuàng)始人、牛津大學(xué)人工智能治理中心政策研究員謝旻希接受《環(huán)球時(shí)報(bào)》記者采訪時(shí)表示,不論是公開信的支持者、反對(duì)者還是旁觀者,對(duì)當(dāng)前AI系統(tǒng)的能力、風(fēng)險(xiǎn)、問題的可解決性等,都存在較大認(rèn)知差異。必須承認(rèn)的是,包括OpenAI在內(nèi)的各國(guó)專家也沒法解釋GPT-4等大模型的行為,對(duì)其局限和風(fēng)險(xiǎn)的理解則更為欠缺。“我們認(rèn)同GPT-4等級(jí)的大模型能創(chuàng)造巨大社會(huì)價(jià)值,風(fēng)險(xiǎn)防控需要把握分寸,不因噎廢食。但AI創(chuàng)新與現(xiàn)實(shí)風(fēng)險(xiǎn)的平衡并非總是正確,有其前提。當(dāng)科技風(fēng)險(xiǎn)非常嚴(yán)峻時(shí),就只能風(fēng)險(xiǎn)防控優(yōu)先,需要強(qiáng)化底線思維防范化解重大風(fēng)險(xiǎn)。”
從原理上看,ChatGPT是基于大量的文本數(shù)據(jù)進(jìn)行訓(xùn)練,通過深度學(xué)習(xí)技術(shù)學(xué)習(xí)文本的語義和語法規(guī)律,從而實(shí)現(xiàn)自然語言處理的各種任務(wù)。這也意味著供它學(xué)習(xí)的數(shù)據(jù)庫(kù)至關(guān)重要。但讓國(guó)內(nèi)外專家普遍質(zhì)疑的是,OpenAI一直沒有披露ChatGPT和GPT-4使用的訓(xùn)練數(shù)據(jù)、如何訓(xùn)練以及運(yùn)作方式。這意味著在AI深度學(xué)習(xí)輸入的數(shù)據(jù)和其輸出的答案之間,存在著人們無法洞悉的“黑箱”,由此產(chǎn)生對(duì)這類AI技術(shù)的信任危機(jī)。
基于現(xiàn)有的深度學(xué)習(xí)原理,這類AI技術(shù)備受詬病的一點(diǎn)就是算法歧視與算法偏見。據(jù)報(bào)道,美國(guó)網(wǎng)民對(duì)ChatGPT的測(cè)試發(fā)現(xiàn)它有明顯的政治立場(chǎng),例如它拒絕寫詩(shī)稱贊美國(guó)前總統(tǒng)特朗普,卻可以毫無障礙地稱贊現(xiàn)任總統(tǒng)拜登。這就與ChatGPT使用的數(shù)據(jù)庫(kù)有關(guān),“大多數(shù)的訓(xùn)練數(shù)據(jù)本身就是有偏見和不安全的”。但在OpenAI沒有公開相關(guān)算法的情況下,很難對(duì)偏見進(jìn)行修正。由于“算法黑箱”的存在,甚至就連OpenAI團(tuán)隊(duì)也沒有搞明白ChatGPT的推理能力到底是如何實(shí)現(xiàn)的。
北京通用人工智能研究院院長(zhǎng)朱松純教授在今年2月與加州大學(xué)伯克利分校教授斯圖爾特·羅素的談話中表示,雖然GPT-4這類大型語言模型已取得一些驚人進(jìn)展,但在處理任務(wù)方面的能力有限,它們只能處理文本領(lǐng)域的任務(wù),無法與物理和社會(huì)環(huán)境進(jìn)行互動(dòng)。這意味著像ChatGPT并不能真正“理解”語言的含義。此外,大型語言模型也不是自主的,它們需要人類來具體定義好每一個(gè)任務(wù),就像“鸚鵡”只能模仿被訓(xùn)練過的話語。雖然ChatGPT已在不同的文本數(shù)據(jù)語料庫(kù)上進(jìn)行了大規(guī)模訓(xùn)練,但它并不具備理解人類價(jià)值或與人類價(jià)值保持一致的能力,即缺乏所謂的“道德指南針”。
因此ChatGPT和GPT-4都出現(xiàn)過“一本正經(jīng)胡說”的情況,OpenAI稱之為“幻覺事實(shí)”。當(dāng)前ChatGPT開始大量被科學(xué)界用于輔助研究工作,包括整理會(huì)議記錄、撰寫文獻(xiàn)綜述和論文手稿等,“編造答案”問題已產(chǎn)生相當(dāng)惡劣的影響。一名德國(guó)生物學(xué)家在接受《自然》雜志采訪時(shí)說,ChatGPT曾給他列出一個(gè)完全虛構(gòu)的參考文獻(xiàn)列表,里面沒有一篇真實(shí)存在的論文。
ChatGPT還存在泄密風(fēng)險(xiǎn)。不久前韓國(guó)三星集團(tuán)內(nèi)部發(fā)生三起ChatGPT誤用與濫用案例,如三星內(nèi)部人員在ChatGPT上提問、驗(yàn)證答案,卻讓這些答案成為ChatGPT的學(xué)習(xí)數(shù)據(jù)庫(kù),若有其他使用者在ChatGPT上提出相關(guān)疑問,恐讓三星企業(yè)機(jī)密外流。為了規(guī)避數(shù)據(jù)泄露風(fēng)險(xiǎn),軟銀、日立、富士通、摩根大通等不少企業(yè)明確禁止員工使用ChatGPT。
另外,最近風(fēng)靡社交平臺(tái)的AI圖象生成軟件Midjourney繪制的“特朗普被捕”等難辨真?zhèn)蔚恼掌诰W(wǎng)上瘋傳。不少業(yè)內(nèi)人士都擔(dān)心未來這類AI技術(shù)可能被別有用心的人利用,產(chǎn)生虛假或誤導(dǎo)性的信息,進(jìn)而影響政治輿論、煽動(dòng)暴力等。
“用AI識(shí)別AI”沒解決辨真?zhèn)坞y題
在是否需要對(duì)AI發(fā)展設(shè)限的問題上,南京信息工程大學(xué)人工智能產(chǎn)業(yè)學(xué)院執(zhí)行院長(zhǎng)鄒榮金在接受《環(huán)球時(shí)報(bào)》記者采訪時(shí)表示,AI技術(shù)能提高生產(chǎn)力,帶來社會(huì)價(jià)值,“這就像有了汽車之后,卻要求大家不許用汽車,繼續(xù)用馬車,這條路是行不通的”。
朱松純此前也表示,回顧漫長(zhǎng)的智能進(jìn)化史可以預(yù)測(cè),通用人工智能的誕生幾乎是不可避免的。為預(yù)防未來的通用人工智能給人類帶來威脅,我們可以逐步放開通用智能體的能力空間和價(jià)值空間。我們可以先將AI系統(tǒng)的適用場(chǎng)合和行動(dòng)空間限制在特定區(qū)域內(nèi),隨著我們對(duì)AI的信任增加,確認(rèn)AI系統(tǒng)安全可控后,再逐步給予它們更大的空間。另外,我們應(yīng)該促進(jìn)算法決策過程的透明度。“如果能外顯地表示通用人工智能的認(rèn)知架構(gòu),知道它是如何工作的,就能更好地控制它。”
由于ChatGPT和GPT-4產(chǎn)生了大量真假難辨的數(shù)據(jù),目前各國(guó)都在推進(jìn)針對(duì)現(xiàn)有AI技術(shù)結(jié)果的智能識(shí)別,這也被戲稱為“用AI識(shí)別AI”。但業(yè)內(nèi)專家承認(rèn),目前相關(guān)進(jìn)展并不太順利。例如針對(duì)學(xué)校作業(yè)和論文是否是ChatGPT的結(jié)果,出現(xiàn)了不少專業(yè)的文件檢測(cè)工具,就連OpenAI也推出了名為AI Text Classifier的文件檢測(cè)器,但它們的識(shí)別正確率都不高。為此,英美等大批學(xué)校不得不明確禁止在論文和課程作業(yè)中使用ChatGPT,否則將被視為學(xué)術(shù)不端行為。
相對(duì)于識(shí)別AI文本,Midjourney等AI軟件生成圖片的識(shí)別難度更大。此前由于AI繪圖對(duì)于人物手部的處理結(jié)果有所欠缺,因此可通過手部細(xì)節(jié)辨別是否是AI繪圖的成果。但Midjourney V5版本的更新就基本解決了手部細(xì)節(jié)的問題,目前更多需要從照片上的地面陰影朝向、人物眼神方向等細(xì)節(jié)進(jìn)行分辨。鄒榮金表示,隨著AI技術(shù)的下一步迭代,未來很可能出現(xiàn)人類很難識(shí)別的情況。專家們擔(dān)心,生成虛假圖片的AI技術(shù)一直在進(jìn)步,特朗普的名氣使“特朗普被捕”這類照片的真?zhèn)魏苋菀妆蛔R(shí)別,但要識(shí)別出普通人相關(guān)的圖片可能困難重重。
鄒榮金表示,針對(duì)這個(gè)問題,OpenAI除了開發(fā)AI技術(shù)之外,還在開發(fā)虹膜認(rèn)證技術(shù)。“即使將來進(jìn)入人工智能時(shí)代,要識(shí)別一篇文章是你寫的還是機(jī)器寫的,有了生物特征的唯一對(duì)應(yīng)后,每一個(gè)信息出來都是可追溯來源的。”
美國(guó)高盛公司近日發(fā)布的報(bào)告稱,生成式AI會(huì)導(dǎo)致勞動(dòng)力市場(chǎng)出現(xiàn)“重大混亂”。鄒榮金認(rèn)為,“AI技術(shù)的推進(jìn),必然會(huì)有一些崗位將被替換,而且替代的速度會(huì)很快。這種焦慮一定是存在的,但會(huì)不會(huì)帶來社會(huì)的動(dòng)蕩呢?我想暫時(shí)不會(huì)那么快。它過渡也是漸變的。ChatGPT最厲害的地方在于能編寫程序,未來將應(yīng)用在各個(gè)領(lǐng)域,我們表面上看到是聊天文字,但其實(shí)它將來會(huì)在各個(gè)領(lǐng)域應(yīng)用。”
想爆料?請(qǐng)登錄《陽光連線》( https://minsheng.iqilu.com/)、撥打新聞熱線0531-66661234或96678,或登錄齊魯網(wǎng)官方微博(@齊魯網(wǎng))提供新聞線索。齊魯網(wǎng)廣告熱線0531-81695052,誠(chéng)邀合作伙伴。