宅男666在线永久免费观看-亚洲中文字幕日产乱码高清app-免费无码又爽又刺激聊天app-上课忘穿内裤被老师摸到高潮-俄罗斯大胆少妇bbw

南京曉然心理咨詢專注南京地區(qū)心理輔導,是您身邊專業(yè)、貼心的心靈伙伴!

首頁 / 心理文章

我們?yōu)槭裁床幌嘈潘惴ǎ?/h1>

發(fā)布時間:2021-5-28 瀏覽次數:962

為什么很多人都不相信人工智能(AI)的算法,拒絕AI帶來的巨大便利?

人工智能(AI)推動了風險感知的信任程度

算法似乎總是正確的,但現實總是充滿了不確定性——投資、開車、做手術、評估工作以及申請大學offer都充滿了太多的變化因素。

那么,人們是否愿意求助于人工智能,以獲得更好的結果呢?近期發(fā)表在《心理科學》雜志上的一項研究發(fā)現:人們還沒有準備好接受人工智能的計算結果。

芝加哥大學的Berkeley J. Dietvorst和Soaham Bharti說:

“這些結果表明,人們不愿意在固有的不確定領域采納AI算法并不是因為人們在等待技術改進,或者等待更好的算法!

”鑒于投資、醫(yī)療決策和其他領域天生就存在很多的不確定性,因此人們在這些領域使用人工智能的可能性就更低,哪怕是目前最好的算法!

我們知道,人工智能算法確實優(yōu)于人類的預測,人工智能使用的工具更先進,遵循的規(guī)則更合理,錯誤率都比人類更低。

研究人員說:“拒絕采用這些(優(yōu)于人類)的算法會帶來更高的成本。例如,很多人都不敢使用自動駕駛技術……盡管研究表明,自動駕駛系統(tǒng)挽救了成千上萬人的生命!



拒絕人工智能是因為他幾乎不犯錯

那么,是什么阻止了人們對人工智能的接納程度,反而偏愛人類自己的技能和本能?

研究人員認為,這其中的原因在于我們相信自己會對不確定的決定承擔更多風險,我們不相信計算機會為我們承擔這種風險。因為人工智能一旦犯錯,他們的錯誤就更加的顯眼,哪怕人工智能犯錯的情況非常罕見。

Dietvorst和Bharti在談及相關的決策風險時說:

“我們建議人們逐漸降低預測誤差的敏感性,即,漸漸不再挑剔預測的準確性,并且接受一定程度的誤差。這會讓人們偏愛那些近乎完美的方案(即,一個幾乎沒有錯誤的方法)!

“與之相反,當人們覺得算法不可能產生近乎完美的答案時,他們往往會選擇風險更高、往往表現較差的決策方法(如人類判斷)。”

研究人員通過9項實驗發(fā)現:“人們覺得近乎完美的預測(可能產生的最好的預測,幾乎沒有誤差)之間存在的主觀差異更大,而誤差較大的預測之間的主觀差異卻相對較小!

也就是說,預測越是精確,人們越是需要更高的準確度;當誤差較大時,反而會更能夠馬馬虎虎的接受。

研究結果顯示,人們不太可能在難以預測的(隨機或方程)領域中選擇最佳的決策者,相反,他們自認為的近乎完美選擇更可能來自于自己的喜好,而且選擇結果有很大的差異。最終導致了人們在不確定的領域中選擇那些風險更大、結果較差的決策者(例如人為判斷)的傾向。

研究人員總結說:“這些結果表明,說服人們在固有的不確定領域使用算法。并非意味著拿出更好的技術或出現更好的算法!

這種拒絕人工智能的行為會帶來巨大的影響,因為如果人們不愿意通過人工智能預測不確定性的話,這些領域就無法利用技術進步獲得更多的收益!


機器有道德嗎?

最近的另一篇文章探討了無人駕駛的困境。

在這種困境中,自動駕駛的車輛必須在道路上做出高風險的道德決定,例如,應該傷害誰、拯救誰(例如行人或乘客)。

Julian De Freitas等人認為,這些擔憂會擾亂工程和政策決策。

他說:”我們教人類如何開車時,不會讓駕駛員被迫進行選擇——不會告訴他應該殺了誰。這是因為計劃一個不可能、無法察覺和無法控制的情況會擾亂我們訓練新司機的目標——盡量減少傷害任何人!

研究人員說,這樣的目標同樣適用于自動駕駛系統(tǒng)。

本文來自于心理學空間網

微信掃一掃,開啟免費咨詢

預約電話:025-84584678
地 址:南京市龍蟠中路329號(陶然苑)203室 (南京電視臺對面)
分部地址:南京江東中路奧體名座E座805、806

微信公眾號

助理微信

點擊這里給我發(fā)消息
南京地區(qū)心理咨詢