您現(xiàn)在的位置:海峽網(wǎng)>新聞中心>IT科技>科技數(shù)碼
分享

英國媒體《衛(wèi)報》今日發(fā)表評論文章指出,人工智能已經(jīng)開始出現(xiàn)了種族和性別偏見,但是這種偏見并非來自機器本身,而是計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念??茖W家呼吁,應當建立一個監(jiān)管機構(gòu),去糾正機器的這種行為。

人工智能逆天:竟已學會種族和性別歧視

讓計算機具備理解人類語言的人工智能(AI)工具已經(jīng)出現(xiàn)了明顯的種族和性別偏見。

這些發(fā)現(xiàn)令人擔憂現(xiàn)有的社會不平等和偏見正在以新的、不可預知的方式得到強化,因為影響人們?nèi)粘I畹拇罅繘Q策正越來越多地由機器人做出。

在過去的幾年里,谷歌翻譯等程序的語言翻譯能力有了顯著提高。這些成就要得益于新的機器學習技術(shù)和大量在線文本數(shù)據(jù)的使用,并在此基礎上對算法進行訓練。

然而,最新研究顯示,隨著機器越來越接近于掌握人類的語言能力,它們也在吸收隱藏于語言中的根深蒂固的偏見。

巴斯大學的計算機科學家、論文合著者喬安娜·布萊森(Joanna Bryson)說:“很多人都認為這表明人工智能(AI)存在偏見。不,這表明我們有偏見,人工智能正在有樣學樣。”

但布萊森警告說,人工智能有可能強化現(xiàn)有偏見,因為算法與人類不同,可能無法有意識地抵制學到的偏見。

“危險在于,你擁有的人工智能系統(tǒng)沒有一處零部件明確需要依靠道德觀念驅(qū)動,這就不好了?!彼f。

人工智能逆天:竟已學會種族和性別歧視

微軟去年推出的Twitter機器人因不當言論而緊急下線

上述研究發(fā)表在《科學》雜志上,重點關注一種名為“單詞嵌入”機器學習工具,后者已經(jīng)改變了計算機解讀語音和文本的方式。有人認為,下一步科技發(fā)展將自然而然地涉及到開發(fā)機器的類人化能力,如常識和邏輯。

“我們選擇研究單詞嵌入的一個主要原因是,近幾年來,它們已幫助電腦在破解語言方面取得了巨大成功?!边@篇論文的資深作者、普林斯頓大學計算機科學家阿爾文德·納拉亞南(Arvind Narayanan)說。

這種方法已經(jīng)在網(wǎng)絡搜索和機器翻譯中使用,其原理是建立一套語言的數(shù)學表示式,依據(jù)與每個單詞同時出現(xiàn)的最常用單詞,將這個詞的意思提煉成一系列數(shù)字(也就是詞向量)。也許令人驚訝的是,這種純粹的統(tǒng)計方法似乎能夠捕捉到每個詞所在的豐富的文化和社會背景,這是字典無法定義的。

例如,在數(shù)學“語言空間”,與花朵有關的詞匯往往與描繪心情愉悅的話語聚集在一起,而與昆蟲相關的詞匯則往往與心情不愉快的詞匯同時出現(xiàn),反映出人們對昆蟲與花朵的相對特點所達成的共識。

最新的文件顯示,人類心理實驗中一些更令人不安的隱性偏見也很容易被算法捕獲?!按菩浴焙汀芭浴迸c藝術(shù)、人文職業(yè)和家庭的聯(lián)系更緊密,“雄性”和“男性”與數(shù)學和工程專業(yè)更為接近。

而且,人工智能系統(tǒng)更有可能將歐美人的名字與諸如“禮物”或“快樂”之類的愉快詞語聯(lián)系在一起,而非裔美國人的名字通常與不愉快的詞語聯(lián)系在一起。

研究結(jié)果表明,算法與隱式聯(lián)想測試擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人面孔聯(lián)系起來。

這些偏見會對人類行為產(chǎn)生深遠的影響。一項先前的研究表明,相對于非洲裔美國人,如果申請者的名字是歐洲裔美國人,即使簡歷內(nèi)容相同,后者所能獲得的面試邀請將比前者多出50%。最新的研究結(jié)果表明,除非采用明確的編程來解決這個問題,否則,算法將與現(xiàn)實社會一樣,充斥著相同的社會偏見。

“如果你不相信種族主義與姓名存在聯(lián)系,這就是例證?!辈既R森說。

研究中使用的機器學習工具是在被稱為“通用爬蟲”語料庫的訓練數(shù)據(jù)集中接受訓練的,其中的8400億個詞語都是從網(wǎng)上公布的材料中選取的。當研究人員把訓練數(shù)據(jù)集換成谷歌新聞的數(shù)據(jù)對機器學習進行訓練時,也出現(xiàn)了類似結(jié)果。

牛津大學數(shù)據(jù)倫理和算法領域的研究人員桑德拉·沃徹(Sandra Wachter)說:“世界存在偏見,歷史數(shù)據(jù)存在偏見,因此,我們得到帶有偏見的結(jié)果,不足為奇?!?/p>

她補充說,算法不僅代表一種威脅,也可能為采取適當方式解除和對抗偏見提供機會。

“至少利用算法,我們可能知道算法會在什么時候出現(xiàn)偏差,”她說,“例如,人類會在解釋為何不雇傭某人時說謊,與此相反,算法不會撒謊,不會欺騙我們?!?/p>

然而,沃徹說,問題在于如何從旨在理解語言的算法中消除不恰當?shù)钠?,同時又不剝奪它們的解讀能力,這將是具有挑戰(zhàn)性的工作。

“原則上,我們可以建立一些系統(tǒng)對帶有偏見的決定進行檢測,然后采取行動,”沃徹說,并與其他人一起呼吁建立一個人工智能監(jiān)管機構(gòu)?!斑@是一項非常復雜的任務,但作為一種社會責任,我們不應回避?!?/p>

責任編輯:海凡

最新科技數(shù)碼 頻道推薦
進入新聞頻道新聞推薦
普通高校招生體育類專業(yè)省級統(tǒng)一考試18
進入圖片頻道最新圖文
進入視頻頻道最新視頻
一周熱點新聞
下載海湃客戶端
關注海峽網(wǎng)微信
?

職業(yè)道德監(jiān)督、違法和不良信息舉報電話:0591-87095414 舉報郵箱:service@hxnews.com

本站游戲頻道作品版權(quán)歸作者所有,如果侵犯了您的版權(quán),請聯(lián)系我們,本站將在3個工作日內(nèi)刪除。

溫馨提示:抵制不良游戲,拒絕盜版游戲,注意自我保護,謹防受騙上當,適度游戲益腦,沉迷游戲傷身,合理安排時間,享受健康生活。

CopyRight ?2016 海峽網(wǎng)(福建日報主管主辦) 版權(quán)所有 閩ICP備15008128號-2 閩互聯(lián)網(wǎng)新聞信息服務備案編號:20070802號

福建日報報業(yè)集團擁有海峽都市報(海峽網(wǎng))采編人員所創(chuàng)作作品之版權(quán),未經(jīng)報業(yè)集團書面授權(quán),不得轉(zhuǎn)載、摘編或以其他方式使用和傳播。

版權(quán)說明| 海峽網(wǎng)全媒體廣告價| 聯(lián)系我們| 法律顧問| 舉報投訴| 海峽網(wǎng)跟帖評論自律管理承諾書

友情鏈接:新聞頻道?| 福建頻道?| 新聞聚合