發(fā)布時(shí)間:2022-7-17 瀏覽次數(shù):829
華盛頓——根據(jù)美國(guó)心理學(xué)會(huì)發(fā)表的研究,當(dāng)由于算法而不是直接的人類參與而發(fā)生性別歧視時(shí),人們?cè)诘赖律系膽嵟瓡?huì)減少。
在這項(xiàng)研究中,研究人員創(chuàng)造了“算法憤怒赤字”一詞來(lái)描述他們對(duì)來(lái)自美國(guó)、加拿大和挪威的 3,900 多名參與者進(jìn)行的八項(xiàng)實(shí)驗(yàn)的發(fā)現(xiàn)。
當(dāng)在算法和人類造成的招聘決策中出現(xiàn)各種關(guān)于性別歧視的場(chǎng)景時(shí),參與者對(duì)算法造成的那些在道德上的憤怒較少。參與者還認(rèn)為,由于算法造成的歧視,公司在法律上的責(zé)任較小。
耶魯大學(xué)博士后研究員、希伯來(lái)大學(xué)新任助理教授、首席研究員 Yochanan Bigman 博士說(shuō):“令人擔(dān)憂的是,公司可以使用算法來(lái)保護(hù)自己免受歧視行為的指責(zé)和公眾審查! 比格曼說(shuō),這些發(fā)現(xiàn)可能會(huì)產(chǎn)生更廣泛的影響,并影響打擊歧視的努力。該研究在線發(fā)表在《實(shí)驗(yàn)心理學(xué)雜志:一般》上。
“人們認(rèn)為人類歧視是出于偏見,例如種族主義或性別歧視,但他們認(rèn)為算法歧視是出于數(shù)據(jù)動(dòng)機(jī),因此他們?cè)诘赖律系膽嵟潭容^低,”比格曼說(shuō)!暗赖聭嵟羌(lì)人們解決不公正現(xiàn)象的重要社會(huì)機(jī)制。如果人們?cè)诘赖律蠈?duì)歧視不那么憤怒,那么他們可能就沒(méi)有動(dòng)力去做一些事情!
一些實(shí)驗(yàn)使用的場(chǎng)景基于亞馬遜涉嫌基于算法的性別歧視的真實(shí)示例,該示例懲罰了女性求職者。雖然該研究側(cè)重于性別歧視,但重復(fù)了八項(xiàng)實(shí)驗(yàn)中的一項(xiàng)以檢查種族和年齡歧視,并獲得了類似的發(fā)現(xiàn)。
關(guān)于人工智能的知識(shí)似乎沒(méi)有什么影響。在挪威對(duì) 150 多名技術(shù)工作者進(jìn)行的一項(xiàng)實(shí)驗(yàn)中,報(bào)告對(duì)人工智能有更多了解的參與者對(duì)算法造成的性別歧視仍然不那么憤怒。
研究人員發(fā)現(xiàn),當(dāng)人們更多地了解特定算法時(shí),可能會(huì)影響他們的前景。在另一項(xiàng)研究中,當(dāng)一家以性別歧視而聞名的公司的男性程序員創(chuàng)建了一種導(dǎo)致性別歧視的招聘算法時(shí),參與者更加憤怒。
比格曼說(shuō),程序員在設(shè)計(jì)新算法時(shí)應(yīng)該意識(shí)到可能會(huì)出現(xiàn)意外歧視。他說(shuō),公共教育活動(dòng)還可能強(qiáng)調(diào)算法造成的歧視可能是現(xiàn)有不平等的結(jié)果。
文章參考APA:《實(shí)驗(yàn)心理學(xué)雜志:綜合》,2022 年 6 月 27 日在線發(fā)表。
2025-7-26
2025-7-25
2025-7-23
2025-7-22
2025-7-18
預(yù)約電話:025-84584678
地 址:南京市龍?bào)粗新?29號(hào)(陶然苑)203室 (南京電視臺(tái)對(duì)面)
分部地址:南京江東中路奧體名座E座805、806
微信公眾號(hào)
助理微信