海歸學(xué)者發(fā)起的公益學(xué)術(shù)平臺

分享信息,整合資源
交流學(xué)術(shù),偶爾風(fēng)月
技術(shù)有無善惡?長期以來,人們通常認(rèn)為技術(shù)是中性的,無所謂善與惡。然而,當(dāng)人工智能技術(shù)一日千里,漸漸深度融合進(jìn)我們的日常生活時(shí),越來越多的研究人員發(fā)現(xiàn),AI是會戴“有色眼鏡”看人的。越來越多的證據(jù)表明,人工智能技術(shù)會引發(fā)歧視現(xiàn)象。
找工作需要投遞簡歷。但你也許不知道,負(fù)責(zé)篩選簡歷的也許并不是企業(yè)的HR,而是AI。自2014年起,亞馬遜公司團(tuán)隊(duì)試圖通過開發(fā)電腦程序來審查求職者簡歷,以在海量信息中自動篩選優(yōu)秀人才。該模型通過觀察過去10年內(nèi)公司選聘員工的標(biāo)準(zhǔn)和結(jié)果來建立一種符合公司價(jià)值取向的模式,并以此來確定應(yīng)聘者的簡歷是否能夠進(jìn)入面試環(huán)節(jié)。
然而僅僅一年,人們發(fā)現(xiàn),大部分女性應(yīng)聘者被AI淘汰掉了。這是因?yàn)樾孪到y(tǒng)并沒有對技術(shù)崗位求職者做出性別中立的評估。實(shí)際上,亞馬遜技術(shù)崗位員工大部分簡歷的確來自于男性,這也反映了男性在科技行業(yè)占主導(dǎo)地位的現(xiàn)狀。當(dāng)簡歷中出現(xiàn)“女性”關(guān)鍵字的時(shí)候,系統(tǒng)自動“學(xué)會”了對這樣的關(guān)鍵詞保持敏感,甚至自動下調(diào)了兩所女子學(xué)院的畢業(yè)生評級。
雖然,亞馬遜之后對程序進(jìn)行了修改,使它們對應(yīng)聘者性別保持中立。但有知情人表示,這并不能保證AI系統(tǒng)在學(xué)習(xí)過程中不會設(shè)計(jì)出其他方面的歧視,比如種族。
最近,推特上有網(wǎng)友發(fā)現(xiàn),將美國第一位黑人總統(tǒng)巴拉克奧巴馬(Barack Obama)的低分辨率照片輸入到一個(gè)名為PULSE的程序中,結(jié)果生成的是一張白色人種的面孔。不僅僅是奧巴馬,使用同樣的算法從低分辨率輸入中生成女演員露西劉或女眾議員亞歷山德里亞奧卡西奧科爾特斯的高分辨率圖像,得出的也是同樣的結(jié)果。
該程序使用一種稱為上尺度(upscaling)的技術(shù)來處理視覺數(shù)據(jù)。它能讓你在網(wǎng)站上看到的人臉更加清晰。一張模糊不清的人臉從低分辨率圖像轉(zhuǎn)換成高分辨率圖像,程序必須通過機(jī)器學(xué)習(xí)來實(shí)現(xiàn)。然而令人遺憾的是,AI在學(xué)習(xí)的過程中,自作聰明地“開發(fā)”出了新面孔。有網(wǎng)友表示:這些圖片充分說明了人工智能存在偏見的風(fēng)險(xiǎn)。
PULSE的創(chuàng)建者承認(rèn)這種偏見的存在,并認(rèn)為問題可能出在了訓(xùn)練的數(shù)據(jù)上。由于用于訓(xùn)練人工智能的數(shù)據(jù)通常偏向于單一的人群白人男性。因此,當(dāng)程序接收的數(shù)據(jù)不在這個(gè)人群范圍內(nèi)時(shí),可能得出并不準(zhǔn)確的結(jié)果。
研究人員認(rèn)為,AI歧視通常是由有偏見的訓(xùn)練數(shù)據(jù)或算法造成的。這一問題在機(jī)器學(xué)習(xí)中普遍存在。然而這種歧視能否被糾正?在一項(xiàng)由馬里蘭大學(xué)羅伯特史密斯商學(xué)院與哈佛大學(xué)組成的聯(lián)合研究中,研究人員試圖通過限制算法來消除專利審查中的潛在偏見。結(jié)果發(fā)現(xiàn),讓算法對所有輸入和操作負(fù)責(zé)很困難。因?yàn)樗惴ㄊ强善垓_的。
專利與發(fā)明每年都在不斷增多。在專利審查過程中,審查人員需要通過篩選來確定新申請的新穎性。美國專利商標(biāo)局用算法技術(shù)來“閱讀”申請文本,以實(shí)現(xiàn)這一目的。具有挑戰(zhàn)性的是,相關(guān)法律規(guī)定,允許申請者創(chuàng)建連字符的單詞,并賦予現(xiàn)有單詞新的含義來描述他們的發(fā)明。這對于申請者來說是一個(gè)機(jī)會,可以戰(zhàn)略性地、有針對性地撰寫申請。
研究人員發(fā)現(xiàn),隨著時(shí)間的推移,申請語言會發(fā)生變化,這使得任何算法都很難獨(dú)立完美地運(yùn)行。“盡管從理論上講,機(jī)器學(xué)習(xí)可以不斷學(xué)習(xí)和糾正專利申請人試圖操縱算法的方式,但專利申請人動態(tài)更新其寫作策略的潛力難以讓算法進(jìn)行逆向訓(xùn)練,來糾正這種行為。”
最終,研究團(tuán)隊(duì)得出的應(yīng)對之策是:“人機(jī)結(jié)合”,即讓專業(yè)人員去人為修整算法帶來的偏頗。雖然也許這并不是最優(yōu)的方法。
高效、便利、精準(zhǔn)……當(dāng)前,人們在享受人工智能帶來的種種便利的同時(shí),也開始對人工智能產(chǎn)生了隱憂。比如就業(yè)崗位減少、隱私侵犯,以及未來超級機(jī)器人對人類主宰地位的威脅等。更可怕的是,人工智能在自主學(xué)習(xí)過程中,可以不在人類的操作下自主執(zhí)行各種功能,甚至于和人類平等對話。在教育領(lǐng)域,很多智能機(jī)器人已經(jīng)被開發(fā)用于教育人類的下一代。是教人向善,還是誘人為惡,這是一個(gè)全新的問題。這也迫使更多人工智能領(lǐng)域?qū)<议_始關(guān)注同一個(gè)問題:智能向善。
“讓技術(shù)具有人類價(jià)值觀,這一問題放在數(shù)十年前,我們是不敢談到的。然而當(dāng)前,我們卻開始正視這一問題。”世界工程組織聯(lián)合會主席、中國新一代人工智能發(fā)展戰(zhàn)略研究院執(zhí)行院長龔克對此表示,所有人工智能行業(yè)從業(yè)者必須有強(qiáng)烈意識,發(fā)展人工智能不能任其成為“壞智能”,要成為幫助人類的“好智能”。要在研發(fā)的同時(shí)賦予AI人類的價(jià)值觀,來服務(wù)社會的可持續(xù)發(fā)展。
史蒂芬霍金曾經(jīng)預(yù)言,完全人工智能的發(fā)展可能會招致人類歷史的終結(jié)。他說:“強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。是好是壞,我不得不說,我們依然不能確定。但我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。”。
新聞名稱:人之初,性本善,那機(jī)器呢?
網(wǎng)站URL:http://chinadenli.net/article22/cjiejc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站導(dǎo)航、手機(jī)網(wǎng)站建設(shè)、企業(yè)建站、App設(shè)計(jì)、品牌網(wǎng)站制作、服務(wù)器托管
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)