siemens x
人工智能

谷歌讓普通人讀懂 AI

2025China.cn   2021年02月24日

 算法黑箱:從奧巴馬“變”成白人說起

  打碼容易去碼難,這條互聯(lián)網(wǎng)定理似乎將成為歷史。2020年,美國杜克大學(xué)的研究者提出一種新型算法,名為PULSE。PULSE屬于超分辨率算法,通俗意義上講,它是一款“去碼神器”,經(jīng)過運(yùn)算與處理,能夠?qū)⒌头直媛?、模糊的照片轉(zhuǎn)換成清晰且細(xì)節(jié)逼真的圖像。按照原論文描述,PULSE能夠在幾秒鐘的時(shí)間內(nèi),將16×16像素的低分辨率小圖放大64倍。

  如果僅僅是放大分辨率,似乎沒有太多值得稱道的地方,畢竟類似的算法早已經(jīng)出現(xiàn)。更為關(guān)鍵的是,PULSE可以定位人物面部的關(guān)鍵特征,生成一組高分辨率的面部細(xì)節(jié),因此,即便是被打了馬賽克的人臉圖像,其毛孔毛發(fā)、皮膚紋理也能被清晰還原。

圖 經(jīng)PULSE處理過的打碼圖片

圖片來源:論文《PULSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models》,論文原地址:https://arxiv.org/pdf/2003.03808.pdf

  簡(jiǎn)單來說,PULSE的原理為:拿到一張低分辨率的人臉圖像之后,首先利用StyleGAN(對(duì)抗生成網(wǎng)絡(luò))生成一組高分辨率圖像,接著,PULSE會(huì)遍歷這組圖像,并將其對(duì)應(yīng)的低分辨率圖與原圖對(duì)比,找到最接近的那張,反推回去,對(duì)應(yīng)的高分辨率圖像就是要生成的結(jié)果。

圖:PULSE圖片處理機(jī)制示例

圖片來源:論文《PULSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models》

  但問題也就在于此,這款“去碼神器”所生成的人臉圖像看似逼真,但實(shí)際上只是一種虛擬的新面孔,并不真實(shí)存在。也就是說,PULSE生成的高清人像,是算法“腦補(bǔ)”出來的作品,這也就是為何研究者會(huì)強(qiáng)調(diào)這項(xiàng)技術(shù)不能應(yīng)用于身份識(shí)別。

  但是,永遠(yuǎn)不要低估網(wǎng)友的好奇心與行動(dòng)力。有人試用了PULSE之后,發(fā)現(xiàn)美國前總統(tǒng)奧巴馬的照片經(jīng)過去碼處理,生成的是一張白人的面孔。而后又有許多人進(jìn)行了相似的測(cè)試,結(jié)果無一例外——輸入低清的少數(shù)族裔人臉圖像,PULSE所生成的都是具備極強(qiáng)白人特征的人臉照片。在種族平等成為焦點(diǎn)的輿論環(huán)境中,這件事很快引起軒然大波。

圖:奧巴馬照片經(jīng)PULSE處理為白人男性面孔 圖源Twitter@Brad Wyble

  按照一般經(jīng)驗(yàn),出現(xiàn)這種情況,肯定是訓(xùn)練算法所選用的數(shù)據(jù)庫出現(xiàn)了問題。正如PULSE的創(chuàng)建者在GitHub上所解釋的:“這種偏見很可能是從StyleGAN訓(xùn)練時(shí)使用的數(shù)據(jù)集繼承而來的?!比斯ぶ悄茴I(lǐng)域的標(biāo)桿性人物Yamm LeCun也被卷入到相關(guān)的討論之中,他同樣認(rèn)為機(jī)器學(xué)習(xí)系統(tǒng)的偏差源于數(shù)據(jù)集的偏差。他指出,PULSE生成的結(jié)果之所以更偏向于白人,是因?yàn)樯窠?jīng)網(wǎng)絡(luò)是在Flickr-Faces-HQ(FFHQ,人臉圖像數(shù)據(jù)集)進(jìn)行訓(xùn)練的,而其中大部分的圖像素材都是白人照片。

圖:Yann LeCun的推文引發(fā)了一場(chǎng)罵戰(zhàn)(原推文已刪除)

  “如果這一系統(tǒng)用塞內(nèi)加爾的數(shù)據(jù)集訓(xùn)練,那肯定所有結(jié)果看起來都像非洲人。”

  LeCun本來是為了解釋算法偏見生成的原理,但他沒能想到,最后這句打趣的話,被指有極強(qiáng)的種族歧視色彩,于是他被卷入一場(chǎng)長(zhǎng)達(dá)數(shù)周的罵戰(zhàn)之中。之后,LeCun不得不連發(fā)17條推文闡述邏輯,仍然不能服眾,最后以公開道歉收?qǐng)觥?/FONT>

  倘若事情到此為止,也就沒有什么特殊性可言,但事情不是那么簡(jiǎn)單。在對(duì)LeCun的批評(píng)聲音中,一部分學(xué)者指責(zé)其片面地理解AI的公平性。譬如AI藝術(shù)家Mario Klingemann就認(rèn)為,問題的出現(xiàn)應(yīng)該歸因于PULSE在選擇像素的邏輯上出現(xiàn)了偏差,而不全是訓(xùn)練數(shù)據(jù)的問題。他強(qiáng)調(diào)自己可以利用StyleGAN將相同的低分辨率奧巴馬的照片生成非白人特征的圖像。

圖:AI藝術(shù)家Mario Klingemann利用StyleGAN將低分辨率奧巴馬的照片生成非白人特征的圖像

  “對(duì)于一張低分辨率圖片來說,可能有數(shù)百萬種高分辨率虛構(gòu)人臉,都能縮略到相同的像素組合模式”,Mario解釋稱。這就好比一道數(shù)學(xué)題可能有很多種解法,在每一種都能得出正確答案的情況下,選擇哪種解法,取決于做題的人。如果PULSE更好地改善選擇邏輯,就能避免或降低StyleGAN偏見的影響。

  距離這一風(fēng)波已經(jīng)過去一段時(shí)間,時(shí)至今日,究竟是哪個(gè)環(huán)節(jié)出現(xiàn)問題依舊沒有定論,數(shù)據(jù)庫,抑或是算法本身?

  但能夠確定的是,這已經(jīng)不是算法第一次出現(xiàn)偏見。

  2016年,美國司法犯罪預(yù)測(cè)系統(tǒng)COMPAS被指會(huì)高估黑人的再犯罪概率,并且大大低估白人的再犯罪概率;2015年,谷歌圖像識(shí)別系統(tǒng)將黑人識(shí)別為“大猩猩”,盡管引起軒然大波,但直至2018年,谷歌都仍未完全修復(fù)這一漏洞,只是將靈長(zhǎng)類的標(biāo)簽從系統(tǒng)中移除,并稱“圖像識(shí)別技術(shù)還不成熟”。

  算法偏見是算法諸多社會(huì)問題中最有代表性的一個(gè),但一直都沒有有效的解決方法。類似事件阻礙著人機(jī)互信,也因此成為人工智能發(fā)展的絆腳石。

  而此類問題之所以根深蒂固,則源于算法的不可解釋性。長(zhǎng)期以來,人與AI的相處模式就是人類提供數(shù)據(jù)集,設(shè)定程式,而AI負(fù)責(zé)生成內(nèi)容、輸出結(jié)果。換句話說,算法的內(nèi)在運(yùn)算機(jī)制就像一個(gè)黑箱一樣,如何運(yùn)作并不能為人所知,而我們只能接受它的結(jié)論。但過程中就可能產(chǎn)生類似于算法偏見的問題,由于算法的黑箱性,我們不會(huì)知道究竟是哪個(gè)環(huán)節(jié)出現(xiàn)了問題,糾偏十分困難。

  當(dāng)下,人工智能正在以前所未有的廣度和深度參與到我們的工作生活之中,算法的黑箱性也就引發(fā)越來越多的擔(dān)憂與質(zhì)疑,在特定的文化語境中,伴之產(chǎn)生的安全風(fēng)險(xiǎn)、隱私風(fēng)險(xiǎn)以及更為廣泛的算法歧視、算法偏見等問題也愈發(fā)尖銳。

  2018年,AI Now Institute發(fā)布的一份報(bào)告(AI NOW Rsport 2018)甚至建議稱,負(fù)責(zé)司法、醫(yī)療保健、社會(huì)福利以及教育的公共機(jī)構(gòu)應(yīng)避免使用算法技術(shù)。算法的不可解釋性逐漸演變成阻礙算法被社會(huì)層面所認(rèn)可的關(guān)鍵性因素。

打開黑箱:谷歌的X AI計(jì)劃與

模型卡(Google Model Cards)

  算法黑箱效應(yīng)所具備的種種風(fēng)險(xiǎn),在不同程度上指向了算法的可解釋性問題。從2016年起,世界各國政府及各類非官方社會(huì)組織就開始極力吁求加強(qiáng)AI的可解釋性。

  美國電氣和電子工程師協(xié)會(huì)(IEEE)在2016年和2017年連續(xù)推出《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書,在多個(gè)部分都提出了對(duì)人工智能和自動(dòng)化系統(tǒng)應(yīng)有解釋能力的要求。

  美國計(jì)算機(jī)協(xié)會(huì)、美國公共政策委員會(huì)在2017年初發(fā)布了《算法透明性和可問責(zé)性聲明》,提出了七項(xiàng)基本原則,其中一項(xiàng)即為“解釋”,希望鼓勵(lì)使用算法決策的系統(tǒng)和機(jī)構(gòu),對(duì)算法的過程和特定的決策提供解釋。

  2018年5月25日正式實(shí)施的歐盟《一般數(shù)據(jù)保護(hù)條例》(GDPR)則被認(rèn)為正式確立了算法解釋權(quán)。

  與此同時(shí),隨著愈發(fā)意識(shí)到AI算法對(duì)日常決策的關(guān)鍵影響,消費(fèi)者也越來越重視數(shù)據(jù)的使用方式,并要求算法更大的透明度。

  正是在社會(huì)輿論與官方政策的雙重壓力下,以谷歌為代表的科技公司開始致力于提高算法的可解釋性,“可解釋性的AI”計(jì)劃(Explainable AI)也就在此背景中被推出。這項(xiàng)簡(jiǎn)稱為“X AI”的計(jì)劃,其本身的目的便是推進(jìn)AI模型決策的透明性。

  早在2017年,谷歌就將其官方戰(zhàn)略設(shè)定為“人工智能至上”,X AI無疑是這一愿景的一部分。作為人工智能行業(yè)的先行者,如何使AI去黑箱化,使其被更廣闊的用戶所接受,無疑是谷歌需要解決的重要挑戰(zhàn),也是其必須履行的責(zé)任。

  圍繞“可解釋性AI”的主線,谷歌推出了一系列技術(shù)舉措。2019年,谷歌推出可解釋人工智能白皮書《AI Explainability Whitepaper》,對(duì)谷歌AI平臺(tái)上的AI可解釋探索與實(shí)踐進(jìn)行了介紹。同年11月推出的Google Model Cards便是其中較有代表性的一項(xiàng)技術(shù),也表征著谷歌在可解釋性領(lǐng)域的最新進(jìn)展。

  Google Model Cards是一種情景假設(shè)分析工具,它的功能是為算法運(yùn)作過程提供一份解釋文檔,使用者可以通過查看該文檔,來了解算法模型的運(yùn)作原理及性能局限。

  正如我們?cè)谑秤檬澄镏皶?huì)閱讀營養(yǎng)物質(zhì)成分表,在路上行駛時(shí)會(huì)參考各種標(biāo)志牌來了解道路狀況,Model Cards所扮演的角色,便是算法的“成分表”與“標(biāo)志牌”。

  這反過來也提醒我們,即便對(duì)待食物或駕駛都如此謹(jǐn)慎,算法在我們的工作與生活中扮演著愈發(fā)關(guān)鍵的角色,我們卻在沒有完全了解它的功能與原理的情況下就聽從其安排。算法在什么條件下表現(xiàn)最佳?算法有盲點(diǎn)存在嗎?如果有,哪些因素影響了它的運(yùn)作?大部分情況下,我們對(duì)這些問題都一無所知?!谀撤N程度上,人之所以無法與算法“交流”,是因?yàn)楹笳叩膹?fù)雜原理,更進(jìn)一步說,這是由于人與算法或更廣義的AI采用不同的“語言”。人類使用高階語言進(jìn)行思考和交流,比如我們?cè)谛稳菀粋€(gè)事物時(shí)往往會(huì)用顏色、大小、形狀等維度的形容詞。而算法關(guān)注低階要素,在它的“視閾”里,一切元素都被扁平化為數(shù)據(jù)點(diǎn),方便其考察不同特征屬性(Feature Atrribution)的權(quán)重。

  以圖像識(shí)別為例,對(duì)于算法來說,一幅圖像中的每個(gè)像素都是輸入要素,它會(huì)關(guān)注圖片中每一個(gè)像素的顯著程度并賦予相關(guān)數(shù)值,以此作為識(shí)別的依據(jù)。對(duì)于人來說,就顯然就不可能用“第五個(gè)坐標(biāo)點(diǎn)的數(shù)值是6”這樣的方式來進(jìn)行判定。

  這種不可通約性阻礙著人與AI的對(duì)話。而可解釋性AI的初衷就是使人類,尤其是那些缺少技術(shù)背景的人更容易理解機(jī)器學(xué)習(xí)模型。

  模型卡(Model Cards)就是以人類能夠看懂的方式來呈現(xiàn)算法的運(yùn)作原理,它實(shí)現(xiàn)了兩個(gè)維度的“可視化”:顯示算法的基本性能機(jī)制;顯示算法的關(guān)鍵限制要素。

  換言之,模型卡主要回答了這樣一些問題:目標(biāo)算法的基本功能是什么?該算法在什么情況下表現(xiàn)最好?何種因素阻礙著算法的運(yùn)作?這些內(nèi)容的可視化幫助使用者有效利用算法的功能,并避免其局限性。如果說算法是一盒藥物,那么模型卡就是說明書,包含適應(yīng)癥狀、藥物成分、不良反應(yīng)等內(nèi)容。

  這項(xiàng)誕生于2019年底的技術(shù)尚未得到大規(guī)模落地應(yīng)用。但谷歌在其主頁上提供了關(guān)于模型卡應(yīng)用的兩個(gè)實(shí)例“人臉識(shí)別(面部檢測(cè))”和“對(duì)象檢測(cè)”,以展示它的運(yùn)作原理。

  在人臉識(shí)別為例,模型卡首先提供的是“模型描述”(Model Description),即算法的基本功能。根據(jù)示例,可以看到人臉識(shí)別算法的基本功能就是“輸入”(照片或視頻)、“輸出”(檢測(cè)到的每個(gè)面部及相關(guān)信息,如邊界框坐標(biāo)、面部標(biāo)志、面部方向以及置信度得分等)。

圖:模型卡應(yīng)用于人臉識(shí)別的工作原理

  而“性能”部分則顯示了識(shí)別算法在各種變量下的表現(xiàn),例如面部大小和面部朝向,以及人口統(tǒng)計(jì)學(xué)變量(如感知膚色、性別和年齡等)。模型卡從與算法訓(xùn)練數(shù)據(jù)不同的數(shù)據(jù)源中提取評(píng)估數(shù)據(jù)集,以此有效檢測(cè)算法的真實(shí)性能。

  “局限性”則列舉了可能影響模型性能的因素,比如臉型大小(距離相機(jī)較遠(yuǎn)或瞳孔距離小于10px的面孔可能無法被檢測(cè))、面部方向(眼、鼻、口等關(guān)鍵的面部標(biāo)志應(yīng)處于正面)、燈光(照明不良的臉部可能無法檢測(cè))、遮擋、模糊、運(yùn)動(dòng)等,這些因素會(huì)影響人臉識(shí)別的效果。

  整體而言,模型卡通過提供“算法成分表”的方式,向研究者或使用者展示算法的基礎(chǔ)運(yùn)行原理、面對(duì)不同變量的性能和局限所在。其實(shí),對(duì)于模型卡的想象力遠(yuǎn)可以超越谷歌提供的兩個(gè)案例,其他算法模型也可以采用模型卡對(duì)性能進(jìn)行分析及展示,比如用于語言翻譯的模型卡可以提供關(guān)于行話和方言的識(shí)別差異,或者測(cè)量算法對(duì)拼寫差異的識(shí)別度。

一種讓普通人理解AI的可行性探索路徑

  模型卡詳細(xì)說明了預(yù)先訓(xùn)練的機(jī)器學(xué)習(xí)模型的性能特征,并提供了有關(guān)其性能和限制的實(shí)用信息。谷歌表示,其目的是幫助開發(fā)人員就使用哪種模型以及如何負(fù)責(zé)任地部署它們做出更明智的決定。

  目前,模型卡的主要應(yīng)用場(chǎng)景是谷歌云平臺(tái)上的Google Cloud Vision,后者是谷歌推出的一款功能強(qiáng)大的圖像識(shí)別工具,主要功能就是學(xué)習(xí)并識(shí)別圖片上的內(nèi)容。Google利用在大型圖像數(shù)據(jù)集上訓(xùn)練的機(jī)器學(xué)習(xí)模型,開發(fā)人員可以通過調(diào)取這個(gè)API來進(jìn)行圖片分類、以及分析圖像內(nèi)容,包括檢測(cè)對(duì)象、人臉以及識(shí)別文字等等。而模型卡則為Google Cloud Vision面部檢測(cè)和對(duì)象檢測(cè)功能提供了解釋文檔。

  對(duì)于技術(shù)人員來說,可以借助模型卡來進(jìn)一步了解算法的性能和局限,從而能夠提供更好的學(xué)習(xí)數(shù)據(jù),改善方法和模型,提高系統(tǒng)能力。但模型卡的作用絕對(duì)不僅限于此,它提供了更為宏大的想象空間。值得一提的是,近年來除了Google,F(xiàn)acebook、IBM等大公司都推出了免費(fèi)的技術(shù)工具,開發(fā)人員可以運(yùn)用此類工具來檢測(cè)AI系統(tǒng)的可靠性和公平性。

  對(duì)于行業(yè)分析師和媒體記者來說,他們可以根據(jù)模型卡了解算法,從而更容易向普通受眾解釋復(fù)雜技術(shù)的原理和影響。

  而隨著與模型卡類似的技術(shù)思路得到更廣泛開發(fā)和應(yīng)用之后,可以進(jìn)一步使普通人從算法的透明性中獲益。比如,當(dāng)人們向銀行申請(qǐng)貸款時(shí),銀行所使用的大數(shù)據(jù)算法會(huì)對(duì)其進(jìn)行信用評(píng)分,進(jìn)而決定是否能夠獲得貸款以及貸款額度大小。當(dāng)一個(gè)人申請(qǐng)貸款卻遭到系統(tǒng)的拒絕,往往只會(huì)收到簡(jiǎn)單的提示,比如“由于缺乏足夠的收入證明,而拒絕了你的申請(qǐng)”。但具備算法常識(shí)的人都會(huì)知道,運(yùn)算過程不會(huì)是一維的,導(dǎo)致最終決策的是算法模型的特定結(jié)構(gòu)及部分要素的權(quán)重。而參照模型卡,普通人就可以根據(jù)算法側(cè)重的要素來強(qiáng)化某些維度上自己的表現(xiàn)。

  模型卡甚至可以幫助發(fā)現(xiàn)并減少算法偏見、算法歧視等問題。例如,在基于人臉識(shí)別的犯罪預(yù)測(cè)系統(tǒng)中,算法在不同人群的識(shí)別上是否表現(xiàn)一致,還是會(huì)隨著膚色或區(qū)域特征的改變而產(chǎn)生不同的結(jié)果?模型卡可以清晰地展現(xiàn)這些差異,讓人們清楚算法的性能及局限所在,并且鼓勵(lì)技術(shù)人員在開發(fā)過程中就考慮這些影響。

  除了模型卡,在可解釋性AI這項(xiàng)工作上,谷歌有更多的表現(xiàn),比如在Google I/O 2019開發(fā)者大會(huì)上發(fā)布的一項(xiàng)技術(shù)TCAV(概念激活向量測(cè)試)。與模型卡有所不同,TCAV所側(cè)重的是呈現(xiàn)不同因素在識(shí)別算法運(yùn)作中所占的比重。比如識(shí)別一張圖片上的動(dòng)物是否是斑馬,TCAV可以分析哪些變量在識(shí)別圖像時(shí)發(fā)揮了作用,以及各自發(fā)揮了多大的重要性,從而清晰展示模型預(yù)測(cè)原理。由結(jié)果可見,在各項(xiàng)概念中,“條紋”(Stripes)占據(jù)的權(quán)重最高,“馬的形體”(Horse)次之,“草原背景”(Savanna)的權(quán)重最低,但也有29%。

圖:TCAV的工作原理示意

  無論是模型卡,還是TCAV,它們都代表著一種將算法的可解釋權(quán)利交由社會(huì)大眾的努力路徑,進(jìn)而達(dá)到規(guī)制算法權(quán)力、緩和算法決策風(fēng)險(xiǎn)的目的。這是它們的創(chuàng)新性所在,也是社會(huì)價(jià)值所在。

  正如前文所述,對(duì)于算法的恐懼,不僅僅是一個(gè)技術(shù)層面的問題,更是社會(huì)意識(shí)層面的問題——人們天生對(duì)陌生事物具有恐懼情緒。在這種情況下,以推進(jìn)人與AI對(duì)話的方式打開算法黑箱,無疑可以打消種種疑慮,增加人們對(duì)算法的信任,從而為人工智能更大范圍普及開辟前路。隨著算法深入到更廣泛的領(lǐng)域,可解釋性AI這項(xiàng)工作會(huì)有更大的前景。

  這對(duì)國內(nèi)算法技術(shù)的發(fā)展也有著切實(shí)的啟發(fā)意義。比如,內(nèi)容推薦算法遭受著“信息繭房”“意見極化”等種種質(zhì)疑,很多科普方面的努力收效甚微,技術(shù)壁壘仍阻礙著普通用戶接近算法。如果能借助模型卡,以一種更友好、清晰的方式展示推薦算法的原理、性能以及局限,無疑能夠增進(jìn)人們對(duì)它的理解。所以,以模型卡為代表的“可解釋性AI”更像是一種對(duì)話方式。它不僅僅促成技術(shù)與技術(shù)人員之間的對(duì)話,而且也促成了專業(yè)人士與普通人的對(duì)話。算法的可解釋性提高之后,開頭提及的LeCun與網(wǎng)友的罵戰(zhàn)就會(huì)大大減少,因?yàn)槟菚r(shí)候,人人都知道算法的偏見來自何種因素、數(shù)據(jù)集和識(shí)別方式,或許在引起爭(zhēng)議之前,大多數(shù)問題就能夠解決掉了。

可解釋性AI,也沒那么容易

  到今天為止,“可解釋性AI”已經(jīng)提出了一段時(shí)間,但實(shí)際上并沒有掀起太大的波瀾?;蛟S在理想的“實(shí)驗(yàn)室”環(huán)境下它大有可為,但放諸現(xiàn)實(shí)語境中,算法可解釋性的推進(jìn)還有一些阻礙。對(duì)于算法可解釋權(quán)本身的存在及正當(dāng)與否,無論在理論維度還是實(shí)踐維度都存在著重大的分歧。

  首先,算法太過復(fù)雜以至于無法解釋。要知道,大多數(shù)具備良好性能的AI模型都具有大約1億個(gè)參數(shù),而這些參數(shù)往往都會(huì)參與到?jīng)Q策過程之中。在如此眾多的因素面前,模型卡如何可以解釋哪些因素會(huì)影響最終的結(jié)果?如果強(qiáng)行打開“算法黑箱”,可能帶來的結(jié)果就是犧牲性能——因?yàn)樗惴ǖ倪\(yùn)作機(jī)制是復(fù)雜、多維度而非線性的,如果采用更簡(jiǎn)單、更易解釋的模型,無疑會(huì)在性能方面作出一些取舍。

  其次,盡管AI的可解釋性重要程度很高,來自社會(huì)多方的壓力成為可解釋性AI的推進(jìn)動(dòng)力。但對(duì)于這項(xiàng)工作的必要性與最終的可行性,也要打一個(gè)問號(hào)。因?yàn)槿祟惖乃季S與決策機(jī)制也是復(fù)雜而難以理解的,即便在今天,我們幾乎也對(duì)人類決策過程一無所知。倘若以人類為黃金標(biāo)準(zhǔn),還如何期望AI能夠自我解釋?如果是在非關(guān)鍵領(lǐng)域,AI的可解釋性又有多重要?

  Yann LeCun就認(rèn)為,對(duì)于人類社會(huì)而言,有些事物是需要解釋的,比如法律。但大多數(shù)情況下,其他事物的可解釋性并沒有想象中那么重要。LeCun又舉了一個(gè)例子,他多年前和一群經(jīng)濟(jì)學(xué)家合作,做了一個(gè)預(yù)測(cè)房?jī)r(jià)的模型。第一個(gè)使用簡(jiǎn)單的線性猜測(cè)模型,能夠清楚解釋運(yùn)作原理;第二個(gè)用的是復(fù)雜的神經(jīng)網(wǎng)絡(luò),但效果比第一個(gè)更好。后來這群經(jīng)濟(jì)學(xué)家開了一家公司,他們會(huì)選擇哪種模型?結(jié)果很明顯。LeCun表示,任何一個(gè)人在這兩種模型里選擇,都會(huì)選效果更好的。

  再者,通過政策條例和倫理準(zhǔn)則提升算法透明度,依然存在一些局限性。要知道,要求算法具備可解釋性與企業(yè)的利益可能會(huì)產(chǎn)生強(qiáng)烈沖突。簡(jiǎn)單公布一個(gè)模型的所有參數(shù),并不能提供其工作機(jī)制的清晰解釋。反而在某些情況下,透露太多算法工作原理的相關(guān)信息可能會(huì)讓不懷好意的人攻擊這個(gè)系統(tǒng)。

  解釋的可能性與必要性、信任與保密等多重張力之下,圍繞可解釋性問題的爭(zhēng)議仍無定論,但一種共識(shí)正在逐漸達(dá)成,就是試圖一網(wǎng)打盡的可解釋性方法顯然不具備可行性。沒有一種模式能夠適合所有問題,伴隨算法技術(shù)的不斷發(fā)展,可解釋性工作的路徑與方向也應(yīng)該不斷進(jìn)行適應(yīng)。

  同樣,AI可解釋性不僅僅是一個(gè)技術(shù)原理的問題,也是技術(shù)倫理、社會(huì)意識(shí)的問題。Google也承認(rèn),它并不想使模型卡成為自身的一個(gè)產(chǎn)品,而是一個(gè)由多種聲音構(gòu)成的、共享的并且不斷發(fā)展的框架,其中包括用戶、開發(fā)人員、民間社會(huì)團(tuán)體、行業(yè)公司、AI合作組織以及其他利益相關(guān)者。面對(duì)如此復(fù)雜的一個(gè)問題,AI的可解釋性應(yīng)該成為世界范圍共同的目標(biāo)與追求。

  本文成稿于2020年11月,節(jié)選自《科技向善白皮書2021》。白皮書將于2021年中正式出版,敬請(qǐng)期待。

  作者

  王煥超 騰訊研究院研究員

(轉(zhuǎn)載)

標(biāo)簽:谷歌 人工智能 我要反饋 
2024世界人工智能大會(huì)專題
即刻點(diǎn)擊并下載ABB資料,好禮贏不停~
優(yōu)傲機(jī)器人下載中心
西克
2024全景工博會(huì)
專題報(bào)道
2024 工博會(huì) | 直播探館 · 全景解讀
2024 工博會(huì) | 直播探館 · 全景解讀

第二十四屆中國工博會(huì)于9月24日至28日在國家會(huì)展中心(上海)舉行,展會(huì)以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會(huì)
2024世界人工智能大會(huì)

WAIC 2024將于7月在上海舉行,論壇時(shí)間7月4日-6日,展覽時(shí)間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會(huì)專題
2024漢諾威工業(yè)博覽會(huì)專題

2024 漢諾威工業(yè)博覽會(huì)將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會(huì),本屆展覽會(huì)... [更多]