|
布魯金斯學會于2018年8月19日至21日期間,對2000名成人互聯(lián)網(wǎng)用戶進行了美國全國民意在線調(diào)查,調(diào)查旨在回答:美國人在戰(zhàn)爭中是否應(yīng)該使用人工智能技術(shù)這一問題,尤其是在其他國家已經(jīng)在發(fā)展軍事人工之智能的假設(shè)下美國人對這一問題的反應(yīng)。這次調(diào)查數(shù)據(jù)及結(jié)果由學術(shù)plus編譯,僅供參考。文章版權(quán)歸原作者所有,觀點不代表本機構(gòu)立場。 作者:Darrell West發(fā)布日期:2018年8月29日 編譯:學術(shù)plus 原載:https://www.
據(jù)布魯金斯學會研究人員進行的一項調(diào)查顯示,30%的美國互聯(lián)網(wǎng)用戶認為人工智能技術(shù)應(yīng)該用于戰(zhàn)爭,39%持反對意見,32%的人不確定。但是接近半數(shù)的美國人(45%)認為,如果對手已經(jīng)在開發(fā)此類武器,美國也應(yīng)該這樣做,25%反對,30%的人不確定。 不同的性別,年齡和地理差異,導致了人們對這一問題認識的區(qū)別。如果對手開發(fā)這類武器,男性(51%)比女性(39%)更支持AI戰(zhàn)爭。與18至34歲的老年人相比,老年人(53%)更支持使用AI作戰(zhàn)。與生活在西部的人(41%)相比,生活在東北地區(qū)(51%)的人最有可能支持這些武器。
三分之二(62%)的人認為人工智能應(yīng)該以人的價值觀為指導,而21%認為不用。男性(64%)比女性(60%)更認同AI應(yīng)該遵循人類價值觀。
該調(diào)查詢問誰應(yīng)該決定如何設(shè)計和部署AI系統(tǒng)。19%認為一般公眾有權(quán)利參與決定,其次是11%投票給私人公司領(lǐng)導者,9%的人認為立法者應(yīng)該決定,7%的人認為應(yīng)由軟件編碼員決定,4%的人支持法官來裁決。但更重要的是,被調(diào)查者中有半數(shù)不知道應(yīng)該由誰做出決定。 但在其中,男性(14%)比女性(8%)更希望私人公司領(lǐng)導者做出人工智能決策。此外,來自東北地區(qū)(14%)的人比中西部地區(qū)(9%)表示他們更傾向私人公司領(lǐng)導人。
調(diào)查中列出了多種AI道德保障方案。每種方案都各具優(yōu)勢和特色,但最受歡迎的是:人工智能道德準則(67%),AI審核委員會(67%),在受到傷害的情況下進行AI調(diào)解(66%),人工智能培訓計劃(65%),AI審計跟蹤(62%)和招聘倫理學家(54%)。 (全文完) |
|
|