當(dāng)前,ChatGPT類大模型加速了數(shù)字世界和物理世界的深度融合,引領(lǐng)人工智能進(jìn)入新的發(fā)展階段。與此同時(shí),人工智能固有的不確定性、不透明性、難以解釋、事實(shí)性錯(cuò)誤等能力局限,對經(jīng)濟(jì)發(fā)展、國際政治和全球治理等方面帶來深遠(yuǎn)影響,引發(fā)了全球?qū)Υ竽P蛷V泛應(yīng)用安全風(fēng)險(xiǎn)的熱議。如何應(yīng)對人工智能風(fēng)險(xiǎn)并把握人工智能發(fā)展的戰(zhàn)略主動(dòng),有效保障國家安全,已成為我國國家安全治理的重要議題。
大模型技術(shù)引發(fā)新的安全風(fēng)險(xiǎn)和治理挑戰(zhàn)。隨著技術(shù)的更新迭代,人工智能的應(yīng)用門檻持續(xù)降低,伴隨著誤用濫用情況的增加,經(jīng)濟(jì)社會(huì)領(lǐng)域的多重安全風(fēng)險(xiǎn)也在交織疊加。
一是放大隱私信息泄露風(fēng)險(xiǎn)。當(dāng)前,人工智能開發(fā)者和服務(wù)提供者可能利用用戶數(shù)據(jù)進(jìn)行優(yōu)化訓(xùn)練,但相關(guān)服務(wù)條款卻并未對數(shù)據(jù)使用做出解釋說明,可能涉及在用戶不知情情況下收集個(gè)人信息、商業(yè)秘密等,安全風(fēng)險(xiǎn)較為突出。為保護(hù)個(gè)人信息安全,部分歐洲國家對大模型進(jìn)行了嚴(yán)格監(jiān)管和審查,甚至考慮禁止ChatGPT等人工智能應(yīng)用。
二是輿論引導(dǎo)與文化滲透風(fēng)險(xiǎn)。在輿論和文化領(lǐng)域,人工智能技術(shù)可被用于算法引導(dǎo)、平臺(tái)滲透、網(wǎng)絡(luò)監(jiān)控、內(nèi)容生成等信息處理環(huán)節(jié),由大模型驅(qū)動(dòng)的文本創(chuàng)作工具可能產(chǎn)生頗具影響力或說服力的信息,使得虛假信息不易被識破,負(fù)面輿情傳播速度加快,進(jìn)而導(dǎo)致侵犯他人合法權(quán)益
、擾亂經(jīng)濟(jì)秩序和社會(huì)秩序
,甚至危害國家安全和社會(huì)公共利益。
三是情報(bào)軍事領(lǐng)域應(yīng)用的新威脅。人工智能的自動(dòng)生成代碼功能使黑客技術(shù)的習(xí)得過程更為容易
,使網(wǎng)絡(luò)攻防的更新頻率大幅提升。利用ChatGPT類大模型可以幫助機(jī)器學(xué)習(xí)識別更加復(fù)雜的文本及實(shí)體
,或?qū)U(kuò)大無人軍用智能無人裝備的應(yīng)用
,增大軍事對峙摩擦,對國家安全帶來嚴(yán)峻挑戰(zhàn)
。
加快推進(jìn)人工智能安全治理。面對人工智能技術(shù)快速發(fā)展、風(fēng)險(xiǎn)持續(xù)蔓延的形勢
,增強(qiáng)人工智能的安全性成為國際組織
、各國政府及產(chǎn)業(yè)界等共同關(guān)注的議題。
我國高度重視人工智能安全問題,不斷加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,建立健全人工智能安全治理體系,對人工智能技術(shù)本身所致的內(nèi)生安全、人工智能應(yīng)用中的衍生安全以及影響和決定人工智能前景的發(fā)展安全問題進(jìn)行系統(tǒng)性治理,確保人工智能安全、可靠、可控。
2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,對人工智能治理工作進(jìn)行了專門部署,并要求建立人工智能安全監(jiān)管和評估體系。我國不斷完善數(shù)據(jù)安全、網(wǎng)絡(luò)安全、人工智能等相關(guān)法律制度建設(shè),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ)。研究制定算法推薦、深度合成、生成式人工智能等領(lǐng)域的管理規(guī)定,對人工智能發(fā)展進(jìn)行引導(dǎo)和規(guī)范,保障相關(guān)技術(shù)產(chǎn)品的有序發(fā)展
。先后發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能倫理規(guī)范》,為人工智能技術(shù)的開發(fā)和應(yīng)用設(shè)定道德約束
,促使人工智能更好地服務(wù)于人類
。此外,我國也積極參與全球人工智能治理
,堅(jiān)持倫理先行
、和平利用、安全可控等治理原則
,呼吁加強(qiáng)對人工智能軍事應(yīng)用的監(jiān)管,以負(fù)責(zé)任的態(tài)度促進(jìn)人工智能安全治理
。
推動(dòng)形成人工智能安全治理的強(qiáng)大合力。盡管已開展一系列治理行動(dòng),但人工智能安全治理還面臨諸多全球共性難題
。人工智能技術(shù)目前并不具備較強(qiáng)的可解釋性
、準(zhǔn)確性和真實(shí)性,難以完全實(shí)現(xiàn)人工智能治理所倡導(dǎo)的透明度
、可靠性和安全性
。如何在創(chuàng)新發(fā)展和有效監(jiān)管之間取得平衡也是各國普遍面臨的問題。既要避免過度監(jiān)管阻礙技術(shù)發(fā)展
,也要防止管理力度不夠而引發(fā)嚴(yán)重問題
。
人工智能影響下的國際科技、經(jīng)濟(jì)及政治領(lǐng)域發(fā)生沖突的可能性日益增大。我國正處在人工智能技術(shù)快速發(fā)展的階段
,必須堅(jiān)持貫徹總體國家安全觀,構(gòu)建多元參與、協(xié)同共治的人工智能治理機(jī)制
,調(diào)動(dòng)各主體參與治理的積極性
,促進(jìn)人工智能與經(jīng)濟(jì)社會(huì)健康有序融合,以高水平科技安全保障國家總體安全
。一是建立健全人工智能安全治理機(jī)制
。堅(jiān)持審慎監(jiān)管、開放包容原則
,強(qiáng)化風(fēng)險(xiǎn)研判和監(jiān)測預(yù)警
,完善科技倫理審查和監(jiān)管制度。二是增強(qiáng)法治保障能力
。加快推進(jìn)人工智能立法
,開展生成式人工智能、信息安全利用等法律問題研究
,建立追溯和問責(zé)機(jī)制
,清晰界定人工智能相關(guān)主體權(quán)利、義務(wù)及責(zé)任邊界
,從而保障各類群體的合法權(quán)益
。三是增強(qiáng)人工智能技術(shù)治理能力。強(qiáng)化人工智能數(shù)據(jù)安全
、隱私保護(hù)等技術(shù)研發(fā)
,強(qiáng)化對人工智能算法和模型的審計(jì)監(jiān)管和對人工智能系統(tǒng)安全性測試評估,增強(qiáng)抗系統(tǒng)性風(fēng)險(xiǎn)能力
。四是增強(qiáng)國際安全合作能力
。倡導(dǎo)以人為本、智能向善理念
,在《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》等基礎(chǔ)上
,發(fā)揮聯(lián)合國、G20
、上合組織等多邊機(jī)制的作用
,拓展人工智能安全共識,避免人工智能濫用帶來的安全風(fēng)險(xiǎn)
。
【作者:趙志耘(中國科學(xué)技術(shù)信息研究所黨委書記、所長,科技部新一代人工智能發(fā)展研究中心主任)
,來源:學(xué)習(xí)時(shí)報(bào)】