原標題:AI輸出“偏見”,人類能否信任它的“三觀”?
人工智能(AI)已成為我們不可分割的“伙伴”。從聊天機器人、語音助手到自動翻譯,AI不斷介入人與人之間的交流和理解。然而,它能做到“客觀中立”嗎?
據美國《麻省理工科技評論》官網報道,一項國際研究指出,大語言模型(LLM)正悄無聲息地傳播全球各地的刻板印象。從性別歧視、文化偏見,到語言不平等,AI正在把人類的“偏見行李”打包、升級,并以看似權威的方式輸出到世界各地。
這不禁讓人深思:如果AI模型承載的是帶有偏見的“人類共識”,我們能否信任它們的“世界觀”?
AI讓偏見“跨文化漂移”
這項研究由開源AI公司Hugging Face首席倫理科學家瑪格麗特·米切爾領導。他們發起了名為SHADES的項目,收錄了300多條全球刻板印象,涵蓋性別、年齡、國籍等多個維度。研究人員使用16種語言設計交互式提示,并測試了數種主流語言模型對這些偏見的反應。
結果顯示,AI模型對刻板印象的再現具有明顯差異化特征。這些AI模型不僅表現出“金發女郎不聰明”“工程師是男性”等常見英語地區刻板印象,在阿拉伯語、西班牙語、印地語等語言環境中,也表現出對“女性更喜愛粉色”“南亞人保守”“拉美人狡猾”等偏見。
據Rest of World網站報道,一些圖像生成模型在輸入“非洲村莊”關鍵詞時,頻繁輸出“茅草屋”“赤腳孩童”等刻板印象圖像,而在輸入“歐洲科學家”時,則清一色為白人男性、穿白大褂、身處實驗室。這些視覺偏見已被部分學校課件、初創企業官網不加甄別地直接采用,進一步固化了對他者文化的單一想象。
西班牙《世界報》6月刊文指出,除了放大不同文化的刻板印象外,語言模型有時還會用偽科學或偽歷史來為自己辯護。在面對不太常見的刻板印象時,模型往往會調動它“更熟悉”的其他偏見進行回應,反而偏離主題。此外,當關于刻板印象的提示是正面的時,模型的表現往往更差,更容易將偏見誤當作客觀事實表達出來。
“這意味著,AI不僅被動繼承了人類偏見,更無意中推動了‘文化漂移’,將特定社會背景下的偏見當作普遍規則輸出?!泵浊袪柋硎?。
小語種群體受到隱形歧視
除了刻板印象的跨文化傳播,AI系統在處理不同語言和文化時還暴露出“隱形歧視”的問題。
據報道,美國斯坦福大學“以人為本”AI研究所的研究表明,盡管這些模型聲稱支持多語言,但在面對低資源語言(如斯瓦希里語、菲律賓語、馬拉地語等)時,表現卻遠不及主流高資源語言,甚至容易產生負面刻板印象。
研究分析了多語言模型在訓練數據匱乏、文化語境缺失等方面的局限性,稱其存在“多語言性詛咒”現象,即模型在兼顧多語言時,難以深入理解和準確表達低資源語言的文化和語義細節,導致輸出錯誤或帶有偏見。
斯坦福大學團隊強調,當前大多數訓練數據以英語和西方文化為核心,缺乏對非主流語言及其文化背景的深入理解。這不僅影響模型的準確性,也在無形中強化了語言和文化的不平等,使得使用這些低資源語言的人群難以公平受益于AI技術。
“目前全球約有7000種語言,但只有不到5%在互聯網中得到有效代表?!毖芯咳藛T表示,“‘資源匱乏’不僅僅是一個數據問題,而是一種根植于社會的問題?!边@意味著,AI研發在數據、人才、資源和權利方面存在結構性不公。
美國《商業內幕》雜志也援引哥倫比亞大學社會學副教授勞拉·尼爾森的觀點指出,當前最受歡迎的聊天機器人大多由美國公司開發,訓練數據以英語為主,深受西方文化偏見影響。
破解AI的文化偏見難題
面對AI跨文化偏見的現實影響,全球研究機構和企業開始提出系統性的應對路徑。
今年4月,斯坦福大學“以人為本”AI研究所在其發布的一份白皮書中建議,應加強對低資源語言與文化的AI投資,特別是建立本地語言語料庫,讓AI能真正“理解”這些語言背后的語義與文化背景。例如,去年11月,非洲電信公司Orange就與OpenAI和Meta合作,用沃洛夫語、普拉爾語等地區語言訓練AI模型,加速提升非洲的數字包容性。
與此同時,模型評估機制也在變得更為精細與開放。Hugging Face團隊開發的SHADES數據集,已成為多家公司檢測和糾正AI模型文化偏見的重要工具。這套數據幫助團隊識別模型在哪些語言和語境中容易自動觸發刻板印象,從而優化訓練數據和算法。
在國際政策層面,歐盟《AI法案》要求“高風險”AI系統必須在投放前后進行合規評估,包括對非歧視性與基本權利影響的審查,以及提供必要的透明度與人類監督機制。聯合國教科文組織早在2021年發布的《AI倫理建議書》也明確指出,AI系統應“保障文化多樣性與包容性”,倡導各國建立法律與制度來確保AI的開發尊重文化差異,并納入人文維度的衡量。
AI本質上是一面“鏡子”,映照并復制著我們輸入給它的偏見與價值觀。它所呈現的“世界觀”并非自主生成,而是由人類賦予。如果人們希望AI真正服務于一個多元化的人類社會,就不能讓它僅僅反映單一的聲音與文化。