偏見:人工智能輔助決策的隱患

導讀: 盡管我們已經闡明了人工智能模型可能帶來的許多問題,但仍舊有很多理由可以支撐我們從以人為中心的決策方式轉變為基于人工智能的決策方式。正如前面提到的,盡管人工智能存在種種缺陷,但它仍然比人類更客觀。




“有人的地方,就有偏見,數據亦然?!?




在《Futurama》這部漫畫里,機器人法官風趣而勇敢,但是現實中,COMPAS算法卻很難讓人笑得出來。


譯注:


COMPAS全稱是Correctional Offender Management Profiling for Alternative Sanctions,以“替代性制裁為目標的懲教犯管理畫像”。簡單理解,就是對嫌疑人進行人工智能畫像,以量刑或者判斷是否假釋。類似于2002年上映的電影《少數派報告》,將犯罪的萌芽消滅于襁褓之中。但此處提出COMPAS是因為這一算法因數據集或者其他問題,會產生對有色人種或特殊族裔的偏見。


和我們看過的大多數科幻電影不同,人工智能給現代生活帶來的革命是潤物無聲的;擁有自主意識的機器人統治人類的場景還沒有出現,但人工智已經滲透到我們的生活之中,穩步地侵入了以前人類獨有的決策領域。正因如此,你甚至可能沒有注意到你的生活中已經有太多方面受到算法的影響。


清晨醒來,你伸手拿起手機,翻翻微博或者抖音,此時,一個由算法創建的內容提要正在為你服務。然后你檢查了你的電子郵件,收件箱中只有重要的信息,因為所有可以忽略的內容都已經自動丟棄到垃圾郵件或促銷文件夾中。你戴上耳機,收聽網易云音樂上的一個新的播放列表,這是算法根據你以前所感興趣的音樂為你挑選的。繼續著上午的例行工作,你進入汽車,并使用百度地圖,看看今天路上堵不堵。


在半個小時的時間里,你所消費的內容、收聽的音樂以及你上班的路程都依賴于算法的預測建模,而不是你自己的大腦。


機器學習來了。人工智能來了。我們正處在信息革命的進程之中,在感嘆生逢其時的同時,必須警惕隨之而來的影響。讓機器告訴你通勤的時間、你應該聽的音樂以及你可能感興趣的內容,這些都是相對無害的例子。但是當你瀏覽你的微博新聞時,某個地方的一個算法正在決定某人的醫療診斷、假釋資格或者職業前景。


從表面上看,機器學習算法看起來是一種很有前景的解決方案,可以消弭人類的偏見,這一人性的弱點可能對數百萬人的生活產生負面影響。人們的初衷是,人工智能中的算法能夠在公平和高效等方面超越人類既有的水平。世界各地的公司、政府、組織和個人都在使用機器決策,支持這樣做的理由有很多:更可靠、更容易、更便宜、更節省時間等。然而,仍有一些問題需要注意。


偏見的一般定義



wx_article_20181227173803_uZHK1m.jpg

圖片來源:Getty Images


偏見可以被定義為在被認為不公平的情況下比其他人更受青睞的某些事物、人或群體。它通常是對某些理性決定或規范的偏離,可以從統計學、法律、道德的或實用主義的角度來理解。我們在日常生活中以及在人類社會尺度上都可以看到偏見的影子。通常情況下,偏見之間會相互強化。


例如,在回家的路上,你可能會選擇走一條不那么“陰暗”的街區,為何會這樣?也許是因為這個地區是那些社會經濟地位較低的人的家園。雖然不是說這類人群一定更有可能參與犯罪活動,但你的偏見,無論是顯性的還是隱性的,都促使你選擇一條不同的路線。從更宏觀的視角看,警方也可能由于偏見從而加強對這些地區的巡邏,而這反過來又可能導致比富裕的社區更高的逮捕率,從而產生一種高犯罪率的假象,而無關那里實際發生的犯罪率有多大。這種惡性循環似乎只會加劇我們最初的偏見。


算法與機器學習


讓我們首先區分經典算法和機器學習算法。經典算法通常被描述為輸入輸出處理器。傳統的編程依賴于植根于邏輯的函數:如果x,那么y。經典算法是基于規則的,顯式的,生硬的。機器學習比這更復雜。機器學習算法不是通過預先設定的數據必須滿足的條件來做出決策,而是通過對決策領域中數百或數千個數據集的審計和統計分析來做出決定的。


例如,當招聘學習算法尋找理想的求職者時,培訓數據集可能會提供在企業中表現最好的候選人的200份簡歷,然后,算法在這些數據中尋找模式和相關性,這樣在評估一份新的簡歷的持有者能否成為理想的候選人的時候,算法的預測能力能夠更強。將決策交給機器學習算法對人類有許多好處,包括節省時間、金錢和精力。然而,當涉及到道德和責任的決定,界限就會變得模糊。因為我們無法確切地理解為什么一臺機器會做出這樣的決定(基于人工智能算法中的黑盒特性),所以當偏見發生時,我們并不總是能夠發現和回避。


機器學習的偏見


Mathwashing (盲目相信算法)


Mathwashing 是一個被創造出來的術語,用來代表社會對數學和算法的癡迷,以及一種心理傾向,即如果有數學或相關語義的參與(即使這些數值很武斷),就更容易相信某事物的真相。人類有一種傾向,認為數學的參與會自動使事物客觀化,因為數學對象似乎獨立于人類的思想。而數學這一存在本身就是基于人類的思想,數學這一體系及相關屬性,作為人類思維的產物而存在,這使得數學與其他衡量方法一樣容易受到人的主觀性的影響。


訓練數據“分類中的公平性”


機器學習算法是基于程序員選擇的數據集來訓練的。有了這些訓練數據,他們就能識別和利用統計數據中的模式、關聯和相關性。例如,通過數千張不同貓和狗的圖片,可以訓練出區分貓和狗的算法。這種分類任務相對簡單;將算法應用于基于人類的法庭判決比這錯綜復雜得多。例如,就刑事司法系統中的人工智能而言,協助法官作出是否給予罪犯假釋的決定,工程師可以將過去人類針對數千例案件所作出的判決輸入系統,但人工智能僅能就此了解到判決的結論。機器沒有能力感知到人類在做出這些判決時,是受何其多的變量的影響,而理性并不總是占據決策的主導地位。計算機科學家稱之為“選擇性標簽”。人類的偏見是在多年的社會融合、文化積累、媒體影響中學到的。算法中學習偏見的滲透過程與此類似:就像人類在誕生之初并無偏見,算法本身也是不存在偏見的,但是,如果給定了一個有缺陷的數據集,偏見將不可避免。


社會反思


人類教會了算法根據輸入信息和從信息中提取的模式來進行預測。鑒于人類存在著各種各樣的偏見,一個表征環境的數據集也同樣會表征這些偏見。從這個意義上說,算法就像鏡子:其學習模式反映了我們社會中存在的偏見,無論是顯性的還是隱性的。






微軟在2016年設計的人工智能聊天機器人,Tay


以Tay為例,它是微軟研發的聊天機器人。Tay的設計初衷是為了模擬一個十幾歲的女孩與Twitter用戶的互動內容,然而,在不到24小時的時間里,網友就見證(其實是推動,譯者注)了Tay的轉變,從表達“人類是超酷的”這樣的天真無邪的小女生到叫囂“希特勒是對的,我恨猶太人”這樣的狂熱分子,僅僅是憑借互聯網上的推特互動。微軟刪除了這些推文,并解釋說Tay在最初的測試階段采用的數據集主要是經過過濾的、非攻擊性的推文,因而并沒有出現任何問題。顯然,當Tay上線時,過濾過程不復存在。從好的方面講,這似乎表明了一種消除偏見的可能方法,即隨著算法的使用和與現實世界的接觸,應該對輸入的數據進行監測和過濾。


上一篇:百微智能家居亮相紅星·美凱龍&新世界·魅力城簽約儀式

下一篇:智慧社區生物識別系統解決方案

微信在線

微信在線

聯系方式:13776170321  工廠地址:浙江省紹興市柯橋區金隆家紡9棟 浙ICP備2021015184號-1 技術支持:澤成網絡
,印度人又粗又长硬配种,真人牲交视频,天天夜日日碰日日摸日日澡,春药玩弄少妇高潮吼叫
18禁美女黄网站色大片免费看下| 少妇做爰免费视频网站| 小SAO货水好多真紧H无码视频| 亚洲GV猛男GV无码男同短文| 国产老熟女乱子人伦视频| 久久久精品人妻久久影视| 亚洲AV无码专区国产乱码电影| 翁公的大龟廷进我身体里| 亚洲精品无码成人AV电影网| 亚洲の无码国产の无码影院| 翁熄性放纵好紧46章|