
近日,關(guān)于人工智能(AI)的新聞很多,有人聞之則喜,有人憂心忡忡。深圳“AI公務(wù)員”上崗,幫助政府大幅提高公共服務(wù)效率。某行業(yè)研究報(bào)告稱,隨著AI替代人工,全球銀行將在未來3年至5年內(nèi)裁員多達(dá)20萬人。AI進(jìn)步了,到底是會“添幫手”還是會“搶飯碗”?
從美國OpenAI公司發(fā)布ChatGPT掀起AI大模型浪潮,到中國DeepSeek風(fēng)靡全球推動(dòng)AI普惠,AI在創(chuàng)造新質(zhì)生產(chǎn)力的同時(shí),也帶來了“替代人類就業(yè)”“深度偽造詐騙”“信息生態(tài)污染”等系統(tǒng)性風(fēng)險(xiǎn)。在智能革命的十字路口強(qiáng)化科技向善法則,關(guān)乎人類文明存續(xù)。如何才能確保人工智能安全、可靠、可控?
全球合作,為AI劃定“不可為”底線。
已經(jīng)有很多人在使用中發(fā)現(xiàn)了AI的不靠譜。當(dāng)AI被賦予“追求效率最大化”目標(biāo)時(shí),可能選擇欺騙人類以完成任務(wù)。而AI能力越強(qiáng),人類就越難分辨真?zhèn)。這就要求我們明確技術(shù)應(yīng)用的負(fù)面清單,將“不作惡”嵌入AI的底層代碼。
劃定“不可為”底線,必須建立全球共識。AI具備無國界屬性,是全球化的典型代表。技術(shù)進(jìn)步無界限,AI進(jìn)化有賴于各國科技工作者的充分交流,也有賴于整個(gè)人類文明的大數(shù)據(jù)喂養(yǎng);技術(shù)應(yīng)用無界限,AI可以廣泛應(yīng)用于醫(yī)療、教育、交通、金融等各領(lǐng)域,可以服務(wù)各國人民。這一屬性,要求人類超越地緣政治干擾,超越地域與文化的差異,共同制定AI普世倫理準(zhǔn)則,推動(dòng)構(gòu)建公平、公正的人工智能國際治理體系。
主動(dòng)安全,為AI消除“不可控”風(fēng)險(xiǎn)。
上醫(yī)治未病。對AI的價(jià)值觀塑造應(yīng)前置到底層設(shè)計(jì)階段,而非事后修補(bǔ)。提高大模型內(nèi)生安全能力,應(yīng)將公平、透明、責(zé)任等倫理原則轉(zhuǎn)化為可量化的技術(shù)參數(shù)。在模型訓(xùn)練和設(shè)計(jì)階段引入道德約束模塊,添加安全語料;在數(shù)據(jù)采集和處理階段強(qiáng)調(diào)源頭管控,嚴(yán)格進(jìn)行數(shù)據(jù)篩選及數(shù)據(jù)安全標(biāo)注;在模型上線前進(jìn)行全面安全評估,確保各類風(fēng)險(xiǎn)項(xiàng)目中生成內(nèi)容的合格率。
在模型部署應(yīng)用后,日常巡檢尤為重要。當(dāng)然,對AI安全來說,“防守”比“破壞”難度大。當(dāng)生成式AI的迭代速度超過常用檢測工具時(shí),單兵突進(jìn)式解決方案必然失效。AI時(shí)代,發(fā)展與安全不是對立,而是相輔相成。用大模型治理大模型,正在成為AI治理的新范式。
社會協(xié)同,為AI構(gòu)建“向善”大環(huán)境。
當(dāng)詐騙犯能利用AI精準(zhǔn)模仿親人聲音,當(dāng)求職者因算法偏見喪失工作機(jī)會,當(dāng)網(wǎng)絡(luò)信息被AI制作的海量虛假內(nèi)容深度污染,技術(shù)風(fēng)險(xiǎn)就已滲透社會的毛細(xì)血管。應(yīng)對AI帶來的不良沖擊,需要建立政府、企業(yè)、公眾共治的社會協(xié)同防御體系。政府要在鼓勵(lì)創(chuàng)新與管控風(fēng)險(xiǎn)之間保持平衡,企業(yè)要開發(fā)更多AI安全技術(shù)產(chǎn)品,公眾要提升批判性思維與科技倫理素養(yǎng)。
這也意味著,教育體系革新迫在眉睫。要在中小學(xué)引入“AI素養(yǎng)”教育,教導(dǎo)未成年人正確認(rèn)識AI;要在大學(xué)開設(shè)“AI倫理”課程,培養(yǎng)技術(shù)人才的社會責(zé)任感;要在職業(yè)教育中設(shè)置“AI轉(zhuǎn)型”基金,資助因AI替代而失業(yè)的群體進(jìn)行技能重塑。
AI技術(shù)不是萬能的,缺席AI時(shí)代是萬萬不能的。站在智能革命的臨界點(diǎn)上,AI進(jìn)化方向應(yīng)由人類的集體良知決定。引導(dǎo)AI向善,才能讓智能之火照亮人類文明的未來。(本文來源:經(jīng)濟(jì)日報(bào) 作者:佘惠敏)