人們總有或多或少的刻板印象,如國籍、膚色、學(xué)歷、性別等。在人們的心目中,地方團(tuán)體往往是陳詞濫調(diào)。例如,女性應(yīng)該溫柔聽話,工程師和技術(shù)人員大多是男性,白人比黑人有更高的智力等等。每個(gè)人都是個(gè)體。人們對(duì)他人有不同的態(tài)度和看法是正常的。出乎意料的是,人工智能也有一種“刻板印象”。
最近,F(xiàn)acebook的人工智能實(shí)驗(yàn)室進(jìn)行了一項(xiàng)有趣的新研究。他們發(fā)現(xiàn),人工智能偏見不僅存在于國家內(nèi)部,也存在于國家之間。
研究人員測(cè)試了五種流行的對(duì)象識(shí)別算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每個(gè)程序的工作原理。用于測(cè)試的數(shù)據(jù)集來自不同國家的家庭,包括窮人和窮人,包括117個(gè)類別,從鞋子、肥皂到沙發(fā)。
在這項(xiàng)研究中,研究人員發(fā)現(xiàn),當(dāng)被要求識(shí)別低收入家庭時(shí),目標(biāo)識(shí)別算法的準(zhǔn)確度比高收入家庭低10%。隨著月收入的增加,誤差也會(huì)增加。特別是對(duì)于谷歌、微軟和亞馬遜來說,低收入家庭識(shí)別算法的準(zhǔn)確性很低。
與索馬里和布基納法索相比,該算法識(shí)別美國產(chǎn)品的精度提高了15-20%。
這種現(xiàn)象有很多原因。最常見的原因是,在創(chuàng)建算法時(shí),它們經(jīng)常受到相關(guān)工程師的生活和背景的影響。這些人大多來自高收入階層的精英階層。他們的想法和概念是基于他們的想法和概念。人工智能算法也基于它們的思想和概念。
人工智能具有強(qiáng)大的計(jì)算能力。在該算法的基礎(chǔ)上,很容易獲得海量數(shù)據(jù)和識(shí)別信息。然而,令人擔(dān)憂的是,它的偏見不僅在確定對(duì)象方面有偏見,而且在種族和性別歧視方面也有偏見。
研究人員測(cè)試了微軟、IBM和Facebook的人臉識(shí)別能力。他們發(fā)現(xiàn)白人男性的準(zhǔn)確率高于99%,而黑人女性則有47%的錯(cuò)誤率。
亞馬遜開發(fā)了一個(gè)人工智能程序來阻止簡歷的選擇,這也顯示了對(duì)女性的歧視。選擇簡歷后,男人比女人多。包含女性角色的簡歷的權(quán)重將會(huì)降低,甚至兩所女子學(xué)院的研究生評(píng)分也會(huì)降低。可見,人工智能也具有自我選擇和不可磨滅的“歧視”。但另一方面,人工智能似乎是極其平等的。例如,最近發(fā)射的人工智能機(jī)器人,它完全可以實(shí)現(xiàn)每個(gè)人的態(tài)度是平等的。它不會(huì)改變你對(duì)你的態(tài)度,因?yàn)槟阌绣X,還有你的性。他會(huì)像一個(gè)人一樣溫柔地提出問題和回答問題,并及時(shí)接受批評(píng)。電話機(jī)器人好不好用?許多公司都爭(zhēng)先恐后地回答這個(gè)問題。
網(wǎng)頁名稱:人類本性都有傲慢與偏見,那么人工智能會(huì)有偏見嗎?-創(chuàng)新互聯(lián)
鏈接地址:http://chinadenli.net/article30/dggoso.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供商城網(wǎng)站、全網(wǎng)營銷推廣、網(wǎng)站收錄、網(wǎng)站建設(shè)、ChatGPT、網(wǎng)頁設(shè)計(jì)公司
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)