有必要在算力爆炸與人性堅(jiān)守的張力之間,構(gòu)建內(nèi)含包容、反思、韌性的智能社會(huì)。當(dāng)前我國(guó)AI治理框架初具規(guī)模,但在治理理念轉(zhuǎn)變、法律前瞻性、技術(shù)防御深度、全球治理協(xié)同性等方面仍需強(qiáng)化
“我們現(xiàn)在的情況就像有人把老虎當(dāng)寵物……要么把它訓(xùn)練好讓它不攻擊你,要么把它消滅掉。而對(duì)于A(yíng)I,我們沒(méi)辦法把它消滅掉?!痹诮衲?月于上海舉辦的2025世界人工智能大會(huì)上,2024年諾貝爾物理學(xué)獎(jiǎng)獲得者、被譽(yù)為“AI教父”的杰弗里·辛頓以“養(yǎng)老虎”比喻人類(lèi)與AI的關(guān)系,提醒當(dāng)前存在的AI失控風(fēng)險(xiǎn)。
無(wú)獨(dú)有偶,近期多位業(yè)內(nèi)學(xué)者發(fā)出AI失控的警告,認(rèn)為風(fēng)險(xiǎn)真實(shí)存在。專(zhuān)家認(rèn)為,技術(shù)快速迭代導(dǎo)致監(jiān)管出現(xiàn)“治理真空”,疊加全球協(xié)同治理“赤字”和現(xiàn)有安全防護(hù)技術(shù)不足,增加了AI失控風(fēng)險(xiǎn)。建議從完善治理理念、完善法律法規(guī)、加強(qiáng)技術(shù)防御、推動(dòng)國(guó)際協(xié)作等方面筑牢“防火墻”,確保人工智能安全、可靠、可控。
AI失控風(fēng)險(xiǎn)“真實(shí)存在”
AI究竟有沒(méi)有失控風(fēng)險(xiǎn)?在不少專(zhuān)業(yè)人士看來(lái),答案是肯定的。
在2025世界人工智能大會(huì)上杰弗里·辛頓表示,AI完全失控的概率在10%到20%。圖靈獎(jiǎng)得主、加拿大蒙特利爾大學(xué)教授約書(shū)亞·本吉奧認(rèn)為,“當(dāng)前企業(yè)之間、國(guó)家之間的激烈競(jìng)爭(zhēng),正推動(dòng)AI系統(tǒng)加速演進(jìn),而這一過(guò)程往往缺乏對(duì)潛在后果的充分考量?!边@種擔(dān)擾已轉(zhuǎn)化為行動(dòng),辛頓近日與沃茲尼亞克等各界人士聯(lián)名呼吁暫停超級(jí)智能研發(fā)。
清華大學(xué)蘇世民書(shū)院院長(zhǎng)、清華大學(xué)人工智能?chē)?guó)際治理研究院院長(zhǎng)薛瀾告誡,即便AI失控的可能性在數(shù)值上看似很低,人類(lèi)社會(huì)也絕不能抱著“試試看”的僥幸心態(tài)。“一旦系統(tǒng)走向失控,其后果可能不可逆轉(zhuǎn),須采取審慎的治理策略?!?/p>
也有觀(guān)點(diǎn)認(rèn)為,當(dāng)前對(duì)AI失控的擔(dān)憂(yōu)存在夸大之嫌。美國(guó)“元”公司首席AI科學(xué)家楊立昆表示,“AI將接管世界”的想法,很大程度上是“人類(lèi)將自身的行為模式投射到了機(jī)器上”。他表示,那些擔(dān)心風(fēng)險(xiǎn)的人往往是因?yàn)椤吧形凑业綄?shí)現(xiàn)AI安全的可行路徑”。
盡管存在不同聲音,但越來(lái)越多的觀(guān)點(diǎn)認(rèn)為,AI失控已非科幻想象,而是一個(gè)“真實(shí)存在”的風(fēng)險(xiǎn)。在激烈的全球競(jìng)爭(zhēng)下,對(duì)這一風(fēng)險(xiǎn)須引起高度重視。
監(jiān)管存在“真空地帶”
專(zhuān)家分析認(rèn)為,AI失控風(fēng)險(xiǎn)背后存在監(jiān)管機(jī)制滯后、協(xié)同治理出現(xiàn)“赤字”、安全防護(hù)不足三大難題。這些問(wèn)題相互交織,為AI安全發(fā)展帶來(lái)挑戰(zhàn),亟待引起重視。
監(jiān)管追不上技術(shù)迭代。薛瀾認(rèn)為,監(jiān)管政策的制定過(guò)程程序復(fù)雜,需系統(tǒng)研究、綜合協(xié)商,很難跟上技術(shù)迭代的速度。例如,OpenAI發(fā)布GPT-4不到半年,國(guó)內(nèi)外即有多款對(duì)標(biāo)模型上線(xiàn),但多數(shù)國(guó)家對(duì)大模型的法律分類(lèi)、數(shù)據(jù)使用邊界、能力管控機(jī)制仍未落地。
此外,盡管部分國(guó)家要求企業(yè)承諾在“紅線(xiàn)”領(lǐng)域不再繼續(xù)推進(jìn)研發(fā),但在大模型研究競(jìng)爭(zhēng)激烈的背景下,現(xiàn)有監(jiān)管更多依賴(lài)企業(yè)自主約束。為搶占競(jìng)爭(zhēng)優(yōu)勢(shì),企業(yè)可能會(huì)優(yōu)先追求能力突破而弱化風(fēng)險(xiǎn)防控,進(jìn)一步加劇了監(jiān)管與技術(shù)迭代之間的脫節(jié)。
協(xié)同治理出現(xiàn)“赤字”。今年2月在法國(guó)巴黎舉行的人工智能行動(dòng)峰會(huì)上,61國(guó)簽署《關(guān)于發(fā)展包容、可持續(xù)的人工智能造福人類(lèi)與地球的聲明》,英美兩國(guó)卻選擇拒簽。
7月,美國(guó)政府在此前撤銷(xiāo)《關(guān)于安全、可靠和可信地開(kāi)發(fā)和使用人工智能的行政令》的基礎(chǔ)上,進(jìn)一步推出人工智能行動(dòng)計(jì)劃,放寬對(duì)人工智能發(fā)展的監(jiān)管。
“技術(shù)取舍本身是有價(jià)值觀(guān)的,國(guó)與國(guó)之間難以統(tǒng)一?!睆V東省委黨校法治廣東研究中心主任宋儒亮表示,國(guó)際合作應(yīng)超越短期利益博弈,秉持長(zhǎng)期主義理念,保障人工智能為全人類(lèi)的共同福祉服務(wù)。
現(xiàn)有安全防護(hù)能力不足?!艾F(xiàn)在最大的問(wèn)題是,人們都擔(dān)心AI能力越來(lái)越強(qiáng),但誰(shuí)都不知道AI強(qiáng)到什么程度會(huì)出現(xiàn)失控?!毖懻f(shuō),人工智能并非線(xiàn)性發(fā)展,存在巨大不確定性,因此難以預(yù)測(cè)失控的臨界點(diǎn)。
上海人工智能實(shí)驗(yàn)室與安遠(yuǎn)AI于7月發(fā)布的《前沿人工智能風(fēng)險(xiǎn)管理框架》顯示,當(dāng)前模型運(yùn)行的技術(shù)基礎(chǔ)設(shè)施缺乏足夠的安全保障,如網(wǎng)絡(luò)安全防護(hù)不足、物理安全措施薄弱、訪(fǎng)問(wèn)控制機(jī)制不完善。
某國(guó)外機(jī)構(gòu)發(fā)布的相關(guān)報(bào)告也認(rèn)為,現(xiàn)有AI安全防護(hù)技術(shù)主要包括端點(diǎn)檢測(cè)、防火墻等傳統(tǒng)手段,如果面對(duì)具有戰(zhàn)略欺騙能力和快速演化特性的高級(jí)AI系統(tǒng)可能完全失效。AI失控風(fēng)險(xiǎn)的控制窗口期極為短暫,對(duì)監(jiān)測(cè)系統(tǒng)的實(shí)時(shí)性和響應(yīng)速度提出了前所未有的要求。
筑牢AI失控“防火墻”
專(zhuān)家認(rèn)為,有必要在算力爆炸與人性堅(jiān)守的張力之間,構(gòu)建具備包容、反思、韌性的智能社會(huì)。當(dāng)前我國(guó)AI治理框架初具規(guī)模,但在治理理念、法律前瞻性、技術(shù)防御深度、全球治理協(xié)同性等方面仍可強(qiáng)化。
薛瀾認(rèn)為,應(yīng)堅(jiān)持敏捷治理理念。治理并非創(chuàng)新的對(duì)立面,而是實(shí)現(xiàn)人工智能健康、有序、可持續(xù)發(fā)展過(guò)程中不可或缺的制度性支撐。
一是更新治理思路,盡快出臺(tái)相關(guān)政策,并根據(jù)實(shí)踐反饋不斷迭代完善。二是重塑治理關(guān)系,摒棄監(jiān)管者與被監(jiān)管者之間的博弈思維,進(jìn)一步加強(qiáng)溝通與合作。三是調(diào)整治理措施,在工具選擇上突出柔性原則,引導(dǎo)為主,懲罰為輔,以較為緩和方式發(fā)揮信號(hào)警示作用。
9月,北京市網(wǎng)信辦依據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》有關(guān)要求,指導(dǎo)和推動(dòng)抖音、百度、美團(tuán)等首批6家屬地主要網(wǎng)絡(luò)平臺(tái)公示算法規(guī)則原理。宋儒亮說(shuō),應(yīng)在包容、開(kāi)放、審慎的基礎(chǔ)上,進(jìn)一步完善硬法與軟法體系。
對(duì)于大模型,應(yīng)優(yōu)化風(fēng)險(xiǎn)評(píng)估與分級(jí)管理機(jī)制;對(duì)于數(shù)據(jù),應(yīng)加強(qiáng)對(duì)敏感信息、生物識(shí)別信息的分類(lèi)保護(hù);對(duì)于參與主體,則需進(jìn)一步明確人工智能研發(fā)者、提供者、使用者的權(quán)利與義務(wù),同時(shí)暢通公眾參與渠道,以社會(huì)監(jiān)督彌補(bǔ)政府監(jiān)管盲區(qū)。
宋儒亮認(rèn)為,當(dāng)前人工智能應(yīng)用層出不窮,但基礎(chǔ)研究仍存在大量未知。只有加強(qiáng)可解釋性研究,理解其內(nèi)在機(jī)制,才能有效實(shí)現(xiàn)事前預(yù)防,并為法規(guī)制定提供清晰依據(jù)。
“我們只想著讓老虎變得更強(qiáng),卻還沒(méi)為它建一個(gè)籠子。”薛瀾談到,過(guò)去的研究過(guò)于聚焦增強(qiáng)模型能力,忽視了為其構(gòu)建不可逾越的安全邊界。盡管提升模型魯棒性和可解釋性、保障底層價(jià)值對(duì)齊等方法有助于風(fēng)險(xiǎn)防控,但目前仍缺乏像“安全籠”那樣的決定性約束機(jī)制。應(yīng)推動(dòng)安全防御從被動(dòng)補(bǔ)救轉(zhuǎn)向主動(dòng)免疫,構(gòu)建覆蓋全生命周期的安全運(yùn)營(yíng)框架。
薛瀾認(rèn)為,應(yīng)對(duì)失控風(fēng)險(xiǎn)必須依靠全球協(xié)作,但當(dāng)前最前沿的AI公司之間仍缺乏有效交流。應(yīng)加強(qiáng)雙邊尤其是中美對(duì)話(huà)機(jī)制,并落實(shí)聯(lián)合國(guó)體系內(nèi)已達(dá)成協(xié)議的人工智能治理機(jī)制,如建立專(zhuān)家委員會(huì)以監(jiān)測(cè)評(píng)估AI風(fēng)險(xiǎn),打造AI交流平臺(tái)以分享推動(dòng)AI向善的實(shí)踐。
編輯:李華山