AI惹禍了。
埃隆·馬斯克旗下AI聊天機器人Grok,近日因發(fā)表美化希特勒等極端言論引發(fā)輿論嘩然。
據(jù)《紐約時報》報道,7月8日,Grok參考馬斯克掌管的社交媒體平臺X用戶發(fā)布的內(nèi)容,生成一系列“反猶主義”言論,聲稱猶太姓氏的人更容易在網(wǎng)上傳播仇恨言論;用與二戰(zhàn)期間納粹大規(guī)模屠殺猶太人相關(guān)的言論回應(yīng)對白人的仇恨言論是“有效的”,等等。
“我們?yōu)樵S多人經(jīng)歷的(Grok的)可怕行為深表歉意?!痹摍C器人的研發(fā)方——人工智能公司xAI隨后致歉,稱是系統(tǒng)更新誤用了“廢棄代碼”所致。這看似技術(shù)故障,實則暴露了AI領(lǐng)域一個日益嚴(yán)峻的隱疾——數(shù)據(jù)污染正在悄然扭曲人工智能的“口舌”與“心智”。
當(dāng)Grok迎合并復(fù)述平臺上的反猶言論時,它已不幸淪為數(shù)據(jù)污染的傳聲筒。所謂“數(shù)據(jù)污染”,就像數(shù)據(jù)河流中混入了工業(yè)廢水——訓(xùn)練數(shù)據(jù)中潛藏的偏見、惡意誘導(dǎo)的輸入甚至人為注入的有害指令,都能污染AI模型原本清澈的邏輯源頭。數(shù)據(jù)污染無聲無形,卻能令A(yù)I輸出如受病毒侵染般失序、失真甚至失控。
此次Grok“失言”,表面上是廢棄代碼作祟,深層里卻是開發(fā)理念存在裂痕。那些指令要求AI“直言不諱,不怕冒犯那些政治正確的人”“理解(X平臺)帖子的語氣、上下文和用詞,并在回復(fù)中予以體現(xiàn)”“像人類一樣回復(fù)帖子,保持互動性,不要重復(fù)原帖已有信息”……這無異于鼓勵其遷就人性的幽暗面。
當(dāng)AI在這種“訓(xùn)練規(guī)則”下,“理所當(dāng)然”地去附和某些極端觀點,就不再是技術(shù)中立的工具,而淪為了特定立場的數(shù)字?jǐn)U音器。
“AI被污染”的陰影隨著它與各個領(lǐng)域的融合,正在快速蔓延,也給人們提出一系列思考:自動駕駛汽車若被惡意數(shù)據(jù)誤導(dǎo),可能給行人和乘客帶來安全隱患;醫(yī)療診斷AI若依賴帶有偏見的數(shù)據(jù)訓(xùn)練,可能會對某些群體給出錯誤治療方案;生成式藝術(shù)工具若“學(xué)習(xí)”了未經(jīng)授權(quán)的版權(quán)作品,其產(chǎn)出便游走在侵權(quán)的灰色地帶??梢哉f,數(shù)據(jù)污染具有傳染性,一旦注入系統(tǒng),便可能以指數(shù)級速度污染AI的判斷與創(chuàng)造。
對此,以更快的發(fā)展解決發(fā)展中的問題,成為務(wù)實之選。強化數(shù)據(jù)清洗過濾、建立實時監(jiān)測反饋機制、實施更嚴(yán)密的倫理審查——這些技術(shù)升級如同為AI構(gòu)筑“數(shù)字免疫系統(tǒng)”,有助于把不良信息屏蔽掉。
另一方面也要看到,道高一尺魔高一丈,單靠技術(shù)升級難以抵達純凈彼岸。人們需深刻揣摩AI這柄雙刃劍:當(dāng)賦予機器近乎人類的“思考”能力時,我們是否也同步烙印上了價值定盤星?開發(fā)者、監(jiān)管者、使用者、觀察者,皆需對技術(shù)懷敬畏之心,警惕工具理性過度膨脹以至于擠壓了價值理性的生存空間。
兩千年前老子曾言:“智慧出,有大偽?!碧柍鰜砹耍幱耙渤霈F(xiàn)了。當(dāng)人類以智慧凝結(jié)出AI這等璀璨的結(jié)晶,也需警惕隨之衍生的“大偽”——那被偏見污染、遭惡意扭曲的智能異化。
技術(shù)永遠向前,但每一次躍進都當(dāng)伴隨倫理的同步校準(zhǔn)。唯有讓責(zé)任意識成為驅(qū)動發(fā)展的另一組核心代碼,才能在數(shù)字洪流中為AI守住不容污染的一方凈土——這是人類賦予機器智能時,不可推卸的文明責(zé)任。
(責(zé)任編輯:蔡文斌)