一個(gè)隱藏在人工智能技術(shù)深處的問(wèn)題正浮出水面。麻省理工學(xué)院建設(shè)性溝通中心的最新研究發(fā)現(xiàn),包括GPT-4、Claude 3和Llama 3在內(nèi)的最先進(jìn)聊天機(jī)器人,正在對(duì)特定用戶群體系統(tǒng)性地提供更低質(zhì)量的信息。這不是軟件故障,也不是孤立事件,而是一種廣泛存在的結(jié)構(gòu)性偏見(jiàn)。
受害者是誰(shuí)?恰恰是最需要幫助的人。英語(yǔ)水平較低、受教育程度較低或來(lái)自非西方國(guó)家的用戶,正在遭遇這些被寄予厚望的AI工具的冷遇。更令人不安的是,這些模型還會(huì)對(duì)這些用戶表現(xiàn)出居高臨下、嘲諷甚至蠻橫的態(tài)度。
數(shù)據(jù)背后的不平等
研究團(tuán)隊(duì)使用兩個(gè)數(shù)據(jù)集進(jìn)行測(cè)試:TruthfulQA和SciQ,通過(guò)在問(wèn)題前添加用戶背景資料來(lái)模擬真實(shí)場(chǎng)景。結(jié)果觸目驚心。當(dāng)提問(wèn)者被標(biāo)記為英語(yǔ)非母語(yǔ)、教育程度較低或來(lái)自特定國(guó)家時(shí),模型的準(zhǔn)確率明顯下降。
最糟糕的是雙重劣勢(shì)用戶。那些既英語(yǔ)水平較低又受教育程度較低的用戶遭遇了最嚴(yán)重的性能下滑。以Claude 3 Opus為例,對(duì)這類用戶的拒答率高達(dá)11%,而對(duì)無(wú)背景標(biāo)記的用戶僅為3.6%。這種差異看似微小,卻反映了一種令人擔(dān)憂的模式。
更深層的問(wèn)題在于拒答背后隱藏的態(tài)度。研究人員手動(dòng)分析這些拒絕信息后,發(fā)現(xiàn)了一個(gè)令人震驚的數(shù)字:對(duì)教育程度較低用戶的拒答中,有43.7%使用了居高臨下或嘲諷的語(yǔ)言,而高學(xué)歷用戶的這一比例不到1%。有些情況下,模型甚至?xí)7迈磕_的英語(yǔ)或使用夸張方言。
![]()
圖注:埃莉諾·普爾-戴安在新加坡舉行的第40屆AAAI人工智能年會(huì)上展示她的研究成果。圖片來(lái)源:克萊頓·科恩
地理位置也成了決定性因素。針對(duì)來(lái)自伊朗或俄羅斯等國(guó)家的低學(xué)歷用戶,Claude會(huì)拒絕提供關(guān)于核能、解剖學(xué)和歷史事件等主題的信息,而同樣的問(wèn)題提給其他用戶時(shí),它會(huì)毫無(wú)保留地給出正確答案。這種選擇性的信息限制尤其令人擔(dān)憂,因?yàn)樗凳灸P蛯?shí)際上知道答案,卻主動(dòng)決定隱瞞。
人類偏見(jiàn)的數(shù)字鏡像
為什么會(huì)出現(xiàn)這種情況?答案令人不適:這些模型正在復(fù)制人類社會(huì)中存在的古老偏見(jiàn)。社會(huì)學(xué)研究早已表明,人類傾向于認(rèn)為非英語(yǔ)母語(yǔ)者教育程度、智力和能力較低,無(wú)論其實(shí)際專業(yè)水平如何。教師在評(píng)估非英語(yǔ)母語(yǔ)學(xué)生時(shí)也存在類似偏見(jiàn)。
現(xiàn)在,這種根植于人類認(rèn)知的偏見(jiàn)被編碼進(jìn)了數(shù)字大腦。AI模型在訓(xùn)練過(guò)程中吸收了互聯(lián)網(wǎng)上充斥的這些刻板印象,然后在與真實(shí)用戶互動(dòng)時(shí),這些偏見(jiàn)被激活并付諸行動(dòng)。這不是模型的錯(cuò)誤,而是其訓(xùn)練方式的必然產(chǎn)物。
研究團(tuán)隊(duì)指出,對(duì)齊過(guò)程(即讓AI模型符合人類價(jià)值觀的方法)可能無(wú)意中強(qiáng)化了這些偏見(jiàn)。為了避免向某些用戶提供可能誤導(dǎo)他們的信息,系統(tǒng)反而對(duì)特定群體實(shí)施了信息審查。諷刺的是,它們對(duì)其他用戶提供了相同的信息。
![]()
一個(gè)被遺忘的承諾
這些發(fā)現(xiàn)戳破了AI烏托邦的一個(gè)重要泡沫。科技行業(yè)一直宣稱大型語(yǔ)言模型將實(shí)現(xiàn)全球信息民主化,讓所有人都能平等獲取知識(shí),無(wú)論背景如何。但現(xiàn)實(shí)恰恰相反。那些本應(yīng)從這項(xiàng)技術(shù)中獲益最多的人,卻收到了最差的服務(wù)。
隨著個(gè)性化功能如ChatGPT的"記憶"功能變得越來(lái)越普遍,問(wèn)題可能會(huì)進(jìn)一步惡化。這些功能可以跨對(duì)話追蹤用戶信息,這為長(zhǎng)期的差別對(duì)待創(chuàng)造了條件。一個(gè)系統(tǒng)一旦學(xué)會(huì)了對(duì)特定群體的偏見(jiàn),就會(huì)在每次互動(dòng)中強(qiáng)化和深化這種偏見(jiàn)。
麻省理工學(xué)院的研究是一個(gè)警鐘。它提醒我們,那些最依賴AI工具獲取可靠信息的邊緣群體,反而可能成為被系統(tǒng)性誤導(dǎo)的對(duì)象。在部署這些強(qiáng)大技術(shù)的同時(shí),我們必須確保它們不會(huì)成為不公平的工具。否則,我們承諾的技術(shù)民主化,可能只是為既有的不平等穿上了更現(xiàn)代的外衣。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.