史丹佛大學的最新研究指出,人工智慧可憑人臉精準分辨其是否為同志。(湯森路透)
英國《經濟學人》(the Economist)日前刊出一份美國史丹佛大學(University of Stanford)的最新研究,內容為人工智慧(AI)能夠依據人臉精準辨識其性傾向,未料引來美國兩大同志倡導團體的厲聲批評,憂心該技術被不當使用,反讓LGBT族群陷入不利處境。
AI gaydar. https://t.co/345fEGg6Bw
— Garett Walker (@icosa81) 2017年9月8日
面對研究成果演變為鬧得沸沸揚揚的風波,研究的共同作者、史丹佛大學助理教授科辛斯基(Michal Kosinski)出面喊冤,表示自己對外界的批評感到「一頭霧水」。
該份研究透過演算法來分析下載自美國知名線上交友網站的用戶照片,得此結論--該演算法正確分辨直男與異男的準確率高達81%,女性部分的表現稍差,但仍有74%的正確率。不過,採用的照片皆為白人使用者。
Our JPSP paper warning that sexual orientation can be predicted from faces is now available at https://t.co/d1AAc6t67O pic.twitter.com/6E5cfPYx7m
— Michal Kosinski (@michalkosinski) 2017年9月8日
該結果多少暗示,比起人類,AI或許是個更稱職的「同性戀雷達」(gaydar)。對此,美國「反詆毀同性戀聯盟」(GLAAD)及「人權戰線」(The Human Rights Campaign)8日出面痛批這份被他們形容為「垃圾科學」(junk science)的研究,認為其充滿「瑕疵」且恐「帶來危險」。
Hey @TheEconomist - can you update your article with the facts about this flawed report? https://t.co/Ut9EMHX51E https://t.co/e6EHyjJfYF
— GLAAD (@glaad) 2017年9月8日
兩團體指出,全世界的同志恐因該技術而被迫出櫃。另外,對於該研究僅用「網路」照片且未納入有色人種、雙性戀及跨性別族群,也遭LGBT倡議份子批評過於狹隘。
負責推廣公眾教育的「人權戰線」主任喬納森(Ashland Johnson)於聲明表示,「大家試想看看,若這份有瑕疵的研究被某個殘暴政權用來指認並迫害他們認為是同志的人,其恐帶來的後果。」喬納森指責史丹佛大學不應掛名,讓其仗著大學的名譽傷害數百萬人的性命。
《衛報》(the Guardian)報導,這份研究引發的激烈爭辯,主要聚焦在人類性傾向的生物源起及臉部辨識技術背後的倫理及隱私問題。LGBT倡議份子質疑研究對於性別及性傾向的定義過於廣泛,甚至帶有誤解。
科辛斯基則向《衛報》訴苦,稱研究使用的機器學習(machine-learning)科技早就存在,加上本次的研究動機正是為揭露AI被不當應用的威脅,以此推動針對隱私保護及規範制定的努力。「身為科學家的其一職責就是,當我知道有些事可能可以保護人們免於受害,我應當將其發表」。
不過,科辛斯基並未公開任何可能會被公眾使用的臉部辨識技術。就他看來,最新的研究結果並非真如批評所言,不利於LGBT族群,反倒提供他們更多關於性傾向有其生物因素的證據。換言之,同志之所以為同志並非出於選擇。
LGBT groups denounce 'dangerous' AI that uses your face to guess sexuality. What if they are wrong? https://t.co/dOETd7M9f5
— Michal Kosinski (@michalkosinski) 2017年9月9日
面對外界稱其範本不夠多元的指控,科辛斯基與另一名共同作家王怡倫(音譯)坦承,研究過程未能找到足夠的非白人同志照片,但堅稱自己的演算法在跨種族的表現,不會有太大落差。
科辛斯基也不忘替自己的研究辯護,稱批評者的行為等同在鼓勵大眾無視AI科技的真正危險。「因為意識形態的理由而拒絕接受研究結果…你們傷害到的可能是那群你們真正在意的人。」
【編輯推薦】