據《每日郵報》報道,計算機程序員們正試圖教育機器人減少性別歧視,其方法是幫助它們擺脫某些單詞所帶來的偏見。
雖然計算機可能是中性的,但人類的偏見可能無意識地體現在對語言進行分析的機器學習算法。這種偏見被證明已產生影響,如對求職者進行分類的基本計算機程序,可能會基于關鍵詞而對某些求職者產生歧視。但美國有一個研究小組在正試圖打破這種偏見。
微軟研究院(MicrosoftResearch)的程序員亞當·卡萊(AdamKalai)正與波士頓大學的研究人員合作,試圖從計算機中刪除這種偏見。
該研究小組正在利用一種被稱為“詞向量(WordEmbedding)”的技術,教育機器如何通過尋找單詞之間的關系來處理語言。使用該方法,機器可以通過比較單詞“她”和“他”來了解上下文。具體在應用時,機器會找到合適的配對,如“姐妹-兄弟”或“女王-王”。但是,當計算機搜索現實世界資源時,詞向量方法可能根據固有的性別成見而進行配對。例如,尋找工作職位時,對于“她-他”配對,計算機會聯想到“縫紉工-木工”或“室內設計師-建筑師”。
向計算機輸入來自谷歌新聞的文章,正如所預料的,對于“她-他”單詞配對,能產生了一些良性的關聯,如母親-父親和自己(herself)-自己(himself)。而一些配對更不常見,如“子宮-小腸”或“未婚夫-室友”。但一些基于性別偏見而產生的配對可能有問題。例如,“可愛”被認為是一個女性專用詞,而“輝煌”等于男性,同樣還有“家庭主婦”與“計算機程序員”配對。
在職業上,這種性別歧視最極端的例子是,哲學家、戰斗機飛行員、上司和架構師等這些工作通常與“他”有關。而與“她”相關的職業包括家庭主婦、社交名媛、接待員和理發師。
卡萊在接受NPR(美國全國廣播公司)采訪時表示:“我們試圖避免出現性別歧視的現象,尤其是在新聞文章中……但你發現,這些單詞配對存在相當嚴重的性別歧視性質。”
在網上最近公布的一篇研究報告中,該研究小組發現,他們可以訓練機器忽略單詞的某些關聯,同時保持了所需的關鍵信息。他們解釋稱:“我們的目標是減少單詞配對的性別偏見,同時保留其有用的屬性。”
通過調整他們的算法,該小組能夠去除單詞之間的某些關聯,如“前臺”和“女性”,同時保持合適的單詞配對,如“女王”和“女性”。
雖然其算法仍基于性別產生配對,但忽略了某些潛在的關聯——即某些詞被視為更男性化或女性化。他們認為這種方法或許能通過“詞向量”技術改進機器學習,在保持有用關聯的同時擺脫單詞固有的偏見。
根據NPR的報道,問題是并不一定要用“詞向量”算法來處理語言,這種算法可以區分性別和種族,但只有當研究人員希望專注于某一特定性別或群體時,才可能需要這種算法。
當這種技術被打算作為一種不偏不倚的方法對數據進行分類,而不考慮性別或種族偏見時,這種技術可能會有問題。對此,研究人員解釋稱:“理解基于種族、民族和文化的固有成見而產生的直接和間接偏見,是一項微妙的工作。今后這項工作的一個重要方向將是量化和消除這些偏見。”
更多資訊請關注工業機器人頻道