嚴(yán)查AI造假 守住真實底線 |
2025年07月13日 11時00分 錢江晚報 |
據(jù)中央網(wǎng)信辦通報,2025年6月,網(wǎng)絡(luò)謠言主要聚焦社會熱點、災(zāi)情事故、偽科普等領(lǐng)域,造謠者通過移花接木、AI生成、偽科學(xué)包裝等手段虛構(gòu)或夸大事實,擾亂正常社會秩序。 通報特別提到了災(zāi)情事故類謠言中,AI制假信息所產(chǎn)生的破壞力。有網(wǎng)民借機編造“湖南永州藍山縣特大暴雨致汽車被沖走”“福建南平建甌房道鎮(zhèn)路面嚴(yán)重積水”“烏魯木齊南山板房溝突發(fā)山洪”等虛假視頻和圖文。這類謠言不僅加劇社會恐慌情緒,還干擾正常防災(zāi)救災(zāi)秩序,可謂貽害無窮。 AI生成廣泛存在于信息傳播、內(nèi)容創(chuàng)作等多個領(lǐng)域,在給工作生活帶來便利、豐富創(chuàng)作手段、拓展閱讀空間的同時,也給信息傳播造成了很大的困擾。偽造名人演講的深度合成視頻、以假亂真的“偽科普”文章,還有各種事發(fā)現(xiàn)場的照片視頻,AI制假信息憑借其高仿真度,正在消解公眾的信息甄別能力。 可以說,信息的造假問題已經(jīng)成為互聯(lián)網(wǎng)的一顆毒瘤,不治理將侵蝕網(wǎng)絡(luò)社會的信任基礎(chǔ)。無論是從哪方面看,都要求我們必須對AI內(nèi)容進行嚴(yán)格區(qū)分,讓AI合成內(nèi)容回歸它本來的面目。 面對AI合成造假的新問題,需要升級管理辦法。目前比較常用的防治辦法是進行標(biāo)識,讓AI合成內(nèi)容公之于眾,曬于陽光之下。當(dāng)下,AI制假信息之所以能興風(fēng)作浪,很大程度上就是因為它偽裝得好,別人看不穿看不透,在真假難辨間鉆空子。AI合成內(nèi)容標(biāo)識清楚了,這個空間自然也就消失了。 與此相關(guān)的法律法規(guī)正在完善。今年9月1日起施行制定的《人工智能生成合成內(nèi)容標(biāo)識辦法》進一步對如何標(biāo)識作出了詳細(xì)規(guī)定,屆時,相關(guān)法律法規(guī)將一起形成組合拳,堵住AI合成內(nèi)容治理漏洞。 同時,平臺應(yīng)該進一步督促、約束作者嚴(yán)格執(zhí)行相關(guān)規(guī)定,建立起一套標(biāo)識上可溯源、技術(shù)上可反制、法律責(zé)任界定上清晰明確的監(jiān)管機制,讓平臺算法的抓取和推薦成為網(wǎng)絡(luò)空間善治的模范,而不是謠言傳播的幫兇。此外,AI模型公司也該積極參與治理,模型公司有必要在技術(shù)層面嵌入不可篡改的標(biāo)識模塊。 歷史經(jīng)驗表明,每次技術(shù)革命都伴隨著治理模式的迭代。從印刷品時代的知識產(chǎn)權(quán)保護,到互聯(lián)網(wǎng)時代的網(wǎng)絡(luò)空間治理,人類始終在尋找創(chuàng)新與秩序的平衡點。互聯(lián)網(wǎng)社會的基礎(chǔ)是誠信,只有守住真實傳播的底線,互聯(lián)網(wǎng)才能在技術(shù)創(chuàng)新中保持旺盛的生命力。 (高路) (責(zé)任編輯:梁艷) |
【關(guān)閉窗口】 |