友快網

導航選單

美國兩黨候選人的照片上下顛倒,結果依然是一樣的,結果依然一樣的

上週日晚,佐治亞州的參議員選舉附加賽,兩黨候選人舉行辯論。

有觀眾發現一個奇怪的現象,當把兩名候選人的照片,Kelly Loeffler和民主黨的Raphael Warnock,並列放在推特上,如圖

但推特的首頁抓取顯示出來的,卻是這樣的,

對,兩張都是Kelly Loeffler。Raphael Warnock消失了。

他把照片的上下顛倒,

結果依然是一樣的,兩張都是Kelly Loeffler。

白人女性,黑人男性,在美國社會是地位最高和最低的兩類人,他們的相遇,經常會引發激烈的衝突。

今年年初,紐約中央公園,遛狗的白人女子,遇到了一個觀鳥的黑人大叔。白人女沒有拴狗,黑人男讓她拴上,結果白人女報警,稱黑人大叔要威脅她,引來了警察。

這一事件引發全美憤怒,因為歷史上,當白人女性引來警察,可能導致無辜的黑人男,被當作強姦犯或者搶劫犯,甚至被當場擊斃。

兩名參議員候選人的辯論,當然沒這麼激烈,但推特呈現的不平等,讓民眾很驚訝。如果每次都是白人候選人出現在首頁,曝光機會此消彼長,當選成功率當然要大,這是典型的種族歧視。

有人把它概括為推特的“種族主義演算法”。

這不是網路演算法第一次被爆出有種族歧視嫌疑。今年9月,一個叫Madland的白人學者,與他的同事Zoom影片會議。

當他把影片截圖照片放在推特上時,詭異的事情發生了,他同事的腦袋消失在背景牆裡,

因為他同事是個黑人。

很多人效仿他,在推特上做測試。

有個叫 Tony Arcieri的資料記者 ,把前總統奧巴馬和現任參議院多數黨領袖麥齊。 麥康納放在一起,

結果奧巴馬沒了,只有麥康納。

他懷疑是不是領帶顏色在作怪,就給奧巴馬換了個紅色領帶的圖片,

顯示的依然是麥康納。

最後,他把兩個人的膚色對掉,奧巴馬變成白人,麥康納變成黑人,終於,兩人的頭像並列出現了。

演算法也沒放過動畫片,有人把辛普森一家的兩個人物放上來,一個黑人一個白人,推特只能顯示白人。

還有人腦洞大開,把一條黑狗和一條白狗放上來,

結果不出意外,推特只顯示白狗的照片。

也有人留言,這並不是什麼種族主義。只需要降低白人女性,Kelly Loeffler照片的對比度。增強Raphael Warnock,黑人照片的對比度,

首頁跳出來的,兩張都是Raphael Warnock的。

還有人發現推特的演算法,不但歧視黑人,還歧視女性。

把臉部遮掉,只留下胸部,

結果出現的是男性,因為男士西裝和領帶?

演算法的行為,不僅由程式碼決定,也由訓練它的資料決定。資料是怎樣收集來的,都是那些資料,如何使用,這些人為因素決定了推特首頁如何抓取圖片。

當網路平臺餵了更多白人的資料,在測試和實際應用中,還會產生“放大效應”,不斷的強化白人女性照片,剔除掉黑人照片,導致了“種族主義”的效應。

從技術上,演算法並不是故意如此。機器學習的偏見,來自於人類本身的偏見,而機器學習強化了人的偏見。

不止是推特,在谷歌等平臺也有同樣的問題。有資料記者測試了谷歌雲,一個亞洲人手持體溫計,機器判斷他拿了一個電子裝置,但一個黑人拿著同樣的體溫計,機器判斷是拿著一把槍。

美國兩黨候選人的照片上下顛倒,結果依然是一樣的,結果依然一樣的

推特承認這是個問題,但解決起來很難。一個解決路徑,是對黑人等少數族裔的圖片進行補償型處理,問題是但很難把握度,多少是合適的?

第二個是找到確切的原因,然後修正它。挑戰是,演算法受很多很多因素影響,很難找到這個確切的原因。

機器學習最大的挑戰之一,是“黑盒子效應”。當把程式編好後,人類不斷的往機器裡喂資料,機器則日以繼日,不知疲倦不停頓的學習和自我更新,人類則逐漸失去了對它的控制。並不知道演算法變成什麼樣,更不知道它會把人類帶往哪個方向。所以,如果把我們的偏見和仇恨,也不斷的餵給AI,後果不知道會怎樣。

我們在這裡分享,美國加拿大的工作生活經歷。對北美教育生活有興趣的朋友,從K-博,歡迎關注。

歡迎轉載,但必須在正文前署名,並附上二維碼

上一篇:【旅行】旅行的意義是什麼?我想是一段心安理得的逃離生活的時間!
下一篇:【城事】如今,街頭的流浪狗越發少了!它們去哪兒了?看完我沉默了