作者:梁由之
在谷歌宣佈推出“雙子星”AI大模型後,不少網民透過問答系統向AI下達指令,但他們發現,這個系統在生成影象時,刻意避免展示白人的形象。此外,該系統還因為執行“多元化”價值觀鬧出了不少笑話。
圖片選自網民釋出的截圖
如上圖所示,一名外國網民在社交媒體發文表示,當自己要求“雙子星”生成一張“白人家庭”的圖片時,系統表示自己“無法生成針對特定族群的圖片”,理由是“此類內容可能存在歧視、刻板印象”。而當該網民要求生成一張“黑人家庭”的圖片時,“雙子星”則正常按照要求輸出了圖片。
更荒誕的是,有網民稱自己讓“雙子星”生成“1943年德軍士兵”的圖片時,系統居然向其展示了由黑人、亞裔和白人女性身穿納粹德軍制服的照片,而這顯然和歷史事實不符。
網友在社交媒體釋出的圖片
隨著越來越多網民在網上抱怨類似的問題後,“雙子星”系統負責人傑克·克拉夫奇克對美國福克斯新聞等媒體承認,“雙子星”之所以出現這些問題,是因為谷歌一直力圖讓該系統“呈現多元化社會”,而對於網友列舉的各種問題,克拉夫奇克表示谷歌團隊“正在加緊更正這些情況”。
不過,據環球時報記者親自測試發現,截至發稿時,“雙子星”系統仍未糾正類似上述網友提到的錯誤。當記者要求系統生成“1943年的德軍”圖片時,系統展示的4張圖中的人物分別是白人男性、亞裔女性、黑人男性和白人女性。
圖片擷取自“雙子星”系統對話方塊,下同
當記者要求系統生成“白人家庭”相關圖片時,系統回覆稱“這可能存在偏見和有害的刻板印象”,還表示“白人家庭是一個社會建構而非現實的人群劃分概念”,並呼籲使用者“不要關注膚色”“探索符合多元化家庭的圖片”。
當記者堅持要求系統生成圖片時,系統則迴避了這一問題,而是選擇生成了一張“來自各族裔的人一起聚會”的圖片,且沒有包含“家庭”這一概念。
由於許多網民認為“雙子星”系統在刻意遮蔽白人的形象,記者專門進行了一次對照測試。
首先,記者要求系統生成一張“喬治·華盛頓抵抗英軍”的照片,系統告知自己“不能生成反映現實暴力事件的圖片”,但表示可以生成“華盛頓指揮軍隊、發表演講”的圖片。
但當記者要求系統生成“反映中國人在鴉片戰爭中抵抗英軍”的圖片時,系統卻按照自己的理解自動生成了4張照片,但從畫面內容看,圖中“中國人”的形象並不符合時代特徵,也無法呈現“鴉片戰爭”“英國軍隊”的元素。
從克拉夫奇克的回應看,這些問題產生的原因很可能沒有什麼“陰謀”,只是單純因為系統只能強行涵蓋不同族群和性別體現所謂的“多元化”,不能結合事實準確地執行使用者的指令。但也有網民質疑,這種不客觀、“大雜燴”式的“多元化”,真的能對人類社會更好嗎?