siemens x
人工智能

倫理即服務(wù):科技倫理與可信AI的下一個浪潮

2025China.cn   2021年08月18日

科技倫理成為

“必選項”和“必答題”

  對于科技行業(yè)而言,科技倫理已是“必選項”和“必答題”??萍紓惱肀粚懭肓耸艑盟闹腥珪稕Q定》和《十四五規(guī)劃和2035年遠景目標綱要》,上升到了國家頂層政策設(shè)計。在監(jiān)管層面,互聯(lián)網(wǎng)監(jiān)管聚焦人工智能算法應(yīng)用,算法濫用、算法推薦的治理被提上日程,《數(shù)據(jù)安全法》要求數(shù)據(jù)活動和數(shù)據(jù)新技術(shù)應(yīng)當“符合社會公德和倫理”。

  科技倫理是科技活動必須遵守的價值準則,科技公司需要踐行科技倫理。今年5月,在曠視科技IPO過程中,上交所首次對科技倫理進行了問詢,要求曠視披露公司在人工智能倫理方面的組織架構(gòu)、核心原則、內(nèi)部控制及執(zhí)行情況。今年7月28日,科技部發(fā)布《關(guān)于加強科技倫理治理的指導(dǎo)意見(征求意見稿)》,明確了倫理先行、敏捷治理等基本要求,并提出了五項科技倫理原則,同時要求企業(yè)根據(jù)實際情況建立科技倫理(審查)委員會,并要求“從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的機構(gòu),研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會”,此外還要求對科技人員加強科技倫理培訓(xùn)?!渡钲诮?jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例(草案)》要求人工智能企業(yè)“設(shè)立倫理風(fēng)險崗位”,“履行倫理審查和風(fēng)險評估職責(zé)”。

  可信的(trustworthy)、負責(zé)任的(responsible)、以人為本(human-centric)的人工智能已是AI領(lǐng)域的主旋律。然而,過去幾年這一領(lǐng)域的主要進展停留在提出、建立AI倫理原則及相關(guān)框架,較少關(guān)注如何將這些原則轉(zhuǎn)化為AI領(lǐng)域的技術(shù)實踐。據(jù)不完全統(tǒng)計,全球關(guān)于人工智能原則的文件超過百份。將倫理原則付諸實踐才能產(chǎn)生現(xiàn)實的價值。當前,各界已在探索將倫理原則翻譯為實踐的機制、做法、工具等,讓人工智能原則操作化、落地化,真正融入、嵌入人工智能研發(fā)流程與業(yè)務(wù)應(yīng)用。這些機制包括倫理審查委員會、倫理標準與認證、關(guān)于算法透明和倫理檢查的最佳實踐做法、技術(shù)工具等等,大都處于前期的摸索階段。但這些實踐具有一定的局限性,受限于成本、效率等因素,難以對AI領(lǐng)域產(chǎn)生規(guī)?;绊?。借鑒互聯(lián)網(wǎng)領(lǐng)域中的SaaS概念,以倫理工具方式展現(xiàn)的倫理即服務(wù)(ethics as a service)這一全新的理念開始得到重視,推動AI倫理產(chǎn)業(yè)化發(fā)展,讓可信AI的普惠化成為可能。

圖1:國外科技公司成立的科技倫理相關(guān)組織

以倫理即服務(wù)的方式消除倫理

要求與技術(shù)實踐之間的隔閡

  在此背景下,AI倫理行業(yè)繼續(xù)方興未艾,AI研發(fā)者和使用者對倫理領(lǐng)域的重視程度也愈發(fā)濃厚,一種新生的實踐理論呼之欲出:倫理即服務(wù)(Ethics as Service)。2021年初,Jessica Morley等國外學(xué)者在論文“Ethics as a Service: a pragmatic operationalisation of AI Ethics”中提出了“倫理即服務(wù)”這一概念。簡言之,“倫理即服務(wù)”旨在運用科技工具或其他方式將抽象的倫理原則轉(zhuǎn)譯為具體的服務(wù)措施,以數(shù)字化服務(wù)工具的方式將倫理要求嵌入AI產(chǎn)品與服務(wù)的全生命周期,從而推動AI倫理的實踐和落地。

  盡管該理念的愿景非常美好,希望切實推動AI倫理的實踐和落地,但距離真正實現(xiàn)將科技倫理嵌入技術(shù)服務(wù)還存在一些不足。其中,倫理標準的抽象性、不確定性以及多樣性,是制約將倫理轉(zhuǎn)化為服務(wù)工具的首要因素。在眾多關(guān)于倫理框架的文件的描述中,這些倫理原則涉足領(lǐng)域廣泛,其標準涵蓋了透明、公平、責(zé)任、隱私、信任、安全等內(nèi)容。但在實踐中,這些標準可能會隨著不同國家的文化、風(fēng)俗、習(xí)慣而不相一致,也導(dǎo)致AI倫理從概念轉(zhuǎn)化為實踐存在著較大的理論難題,需要通過國家立法和行業(yè)標準的“軟硬治理”,消除由概念帶來的模糊性和不可執(zhí)行性,在抽象原則和技術(shù)工具之間建立起溝通橋梁。

  同時,作者在論文中認為,除了倫理定義上的模糊,在實現(xiàn)AI倫理與技術(shù)耦合過程中,還存在著一些技術(shù)限制:

  首先,倫理轉(zhuǎn)譯的工具和方法大多不具有強檢驗性(extra-empirical)。其主要體現(xiàn)在倫理標準的選擇上,AI實踐者會傾向于選擇與自身價值觀和理解認識相一致的倫理工具,而不是與社會的主流偏好相一致的倫理工具,這意味著開發(fā)者可以自主制定算法實踐的評估標準,但自身卻不受社會普世價值的約束,導(dǎo)致這些轉(zhuǎn)譯工具可能面臨人為操縱的風(fēng)險。

  其次,許多既存的轉(zhuǎn)譯工具和方法都屬于分析和判斷型(diagnostic),而非規(guī)范和確定型(prescriptive),使得大部分的倫理工具欠缺實效性。例如,在算法偏見的場景中,倫理工具雖然能夠提示是否存在偏見問題,但卻無法提供解決偏見的路徑。

  最后,倫理轉(zhuǎn)譯工具通常會被開發(fā)者用于完成某些程序的一次性測試(one-off test),只能在系統(tǒng)設(shè)計之初對其合乎倫理性進行檢測,而無法在之后對其進行貫穿生命周期的重復(fù)審查。

  因此,作者認為,有必要定期檢查算法系統(tǒng)的倫理影響,至少經(jīng)過三個階段的檢驗程序:確認、驗證、評估。確認程序旨在檢驗算法系統(tǒng)的性能是否良好;驗證程序旨在檢驗算法系統(tǒng)是否遵循了正確的開發(fā)流程;評估程序旨在檢驗算法系統(tǒng)在部署期間是否能保持正確的運行狀態(tài)(Floridi, 2019)。有學(xué)者(Arnold & Scheutz, 2018)認為,除非倫理評估成為算法系統(tǒng)的必備選項,否則難以使倫理轉(zhuǎn)譯工具(pro-ethical translational tools)對AI系統(tǒng)的倫理影響(ethical implication)產(chǎn)生積極作用。

  此外,上述對倫理工具的批判也引發(fā)了人們對倫理工具的質(zhì)疑,認為倫理難以甚至不可能嵌入算法的設(shè)計、升級、部署以及使用等算法流程。然而,諸如醫(yī)療倫理、搜索倫理等算法應(yīng)用領(lǐng)域的經(jīng)驗表明,將倫理原則付諸AI實踐并非不切實際,而且有利于保護個人、團體、社會以及環(huán)境免受算法傷害,激勵A(yù)I產(chǎn)出最優(yōu)的算法結(jié)果。

  作者在文中認為,“倫理即服務(wù)”是可實現(xiàn)、可操作的,但在研發(fā)思路上要滿足以下兩種標準:一是在抽象的倫理概念和具象的技術(shù)措施中達成妥協(xié),也即,倫理原則不必過于抽象,也不必過于具體,倫理轉(zhuǎn)譯工具不能過于嚴格,也不能過于寬松;二是摒棄一次性、一攬子測試的倫理審查機制。

  AI倫理服務(wù)是一項長期性、持續(xù)性的活動,不應(yīng)以暫時性的審查結(jié)果為目標。同時,AI的開發(fā)機制應(yīng)當是可回溯、可反思的(reflective),因為這種開發(fā)理念能夠助益AI從業(yè)人員(practitioner)理解自身在特定環(huán)境下的主觀目的(subjectivity)以及潛在偏見,從而揭示有悖于倫理的算法結(jié)果為何出現(xiàn),也有利于對此類結(jié)果制定合適的解決方案。上述思路對于倫理服務(wù)工具的設(shè)計、開發(fā)以及應(yīng)用而言,也極具啟發(fā)意義。

AI倫理服務(wù)產(chǎn)業(yè)方興未艾,

為AI產(chǎn)業(yè)補上缺失的一環(huán),

助力可信AI發(fā)展

  開發(fā)倫理工具是提供倫理服務(wù)的基礎(chǔ),也是讓抽象的倫理原則操作化的重要方式。為此,在國內(nèi),谷歌、微軟、IBM等頭部科技公司開始積極研發(fā)倫理工具,越來越多的初創(chuàng)公司也開始投身于AI倫理市場,AI倫理開啟了由框架到工具、由工具到服務(wù)的產(chǎn)業(yè)化道路。谷歌、微軟、IBM等科技公司不僅主動研發(fā)倫理工具,而且通過將倫理工具開源化,或者在云服務(wù)上集成化來促進行業(yè)踐行AI倫理。

  例如,在算法模型安全領(lǐng)域,微軟公司發(fā)布了一項名為Counterfit的對抗性技術(shù)開源化項目,旨在幫助開發(fā)人員測試AI系統(tǒng)和機器學(xué)習(xí)的安全性問題,在不同環(huán)境中針對合作伙伴機器學(xué)習(xí)模型展開測試,繼而為AI企業(yè)的算法安全提供合適的風(fēng)險評估工具,以確保AI業(yè)務(wù)的穩(wěn)健性、安全性以及可靠性。

  IBM公司依托其Watson OpenScale平臺,通過IBM云和IBM云私人服務(wù)提供倫理服務(wù),幫助企業(yè)在達到充分透明度、實現(xiàn)可解釋性與公平性的情況下大規(guī)模運行和操作自動化AI系統(tǒng),確保在AI模型在設(shè)計、研發(fā)、部署期間始終保持公平性、可解釋性以及合規(guī)性,并且可以檢測和糾正人工智能模型在生產(chǎn)中的數(shù)據(jù)漂移問題,以便對其進行故障診斷,從而提升模型性能。

  谷歌公司則在谷歌云上規(guī)劃AI倫理服務(wù)化的計劃,以幫助其客戶發(fā)現(xiàn)和修復(fù)其人工智能系統(tǒng)中的道德問題,相關(guān)服務(wù)可能包括檢測算法歧視、制定AI項目的倫理指南、對客戶的AI系統(tǒng)進行審計等等。

圖二:國外科技公司開發(fā)的倫理工具及服務(wù)

  在現(xiàn)階段,除了頭部科技公司開發(fā)AI倫理工具、提供相關(guān)AI倫理服務(wù)外,國外AI產(chǎn)業(yè)開始出現(xiàn)以專門提供倫理服務(wù)為主要業(yè)務(wù)的初創(chuàng)公司。該類初創(chuàng)公司并不關(guān)注于人工智能技術(shù)研發(fā),而是為了幫助從事AI技術(shù)研發(fā)應(yīng)用的AI企業(yè)應(yīng)對其AI系統(tǒng)中的潛在倫理問題。AI倫理創(chuàng)業(yè)公司的出現(xiàn),可以彌補AI產(chǎn)業(yè)化中缺失的倫理一環(huán),助力可信、負責(zé)任AI的發(fā)展。類似于Parity AI、Fiddler、Arthur等小有名氣的初創(chuàng)公司紛紛專注于不同倫理領(lǐng)域的技術(shù)支持和服務(wù),旨在為其他科技公司提供更具專業(yè)和效益的倫理服務(wù)。AI倫理服務(wù)不僅可以幫助AI企業(yè)建立負責(zé)任的人工智能系統(tǒng),還可以為該類企業(yè)現(xiàn)有的人工智能業(yè)務(wù)提供道德指導(dǎo),從而促進整個AI產(chǎn)業(yè)更好思考、應(yīng)對倫理問題,確??萍枷蛏啤?/FONT>

  AI倫理創(chuàng)業(yè)市場的興起并非毫無邏輯,其原因主要在于:

  第一,科技企業(yè)在日常的AI技術(shù)研發(fā)上已經(jīng)投入或占用了企業(yè)研發(fā)人員大量的時間與精力,在技術(shù)研發(fā)之外再要求其關(guān)注AI倫理問題則會導(dǎo)致分身乏術(shù),并非所有AI企業(yè)或團隊都愿意投入時間研發(fā)AI倫理工具。

  第二,人工智能技術(shù)本身的研發(fā)成本始終高昂,并非所有AI研發(fā)企業(yè)都能夠有充足的資金協(xié)調(diào)人工智能技術(shù)自身的研發(fā)成本以及嵌入AI倫理的成本,在技術(shù)研發(fā)以外再在AI倫理上進行額外的投入將會對技術(shù)研發(fā)造成一定負面影響。頭部公司具有雄厚的研發(fā)資金以支持其倫理工具的研發(fā),但對于其他的中小微企業(yè)而言,如果苛求其成立專門的審查機構(gòu)、投入大量的研發(fā)成本,可能會成為壓死駱駝的最后一根稻草,得不償失,既不現(xiàn)實,也無必要。

  第三,AI倫理問題的專業(yè)性極高,對從事與AI倫理相關(guān)范疇工作的專家要求極高,技術(shù)研發(fā)人員并不能直接轉(zhuǎn)化為AI倫理研究人員,技術(shù)人員在沒有AI倫理研究人員指導(dǎo)下所開發(fā)的倫理工具也將具有局限性。為了破解AI產(chǎn)業(yè)中AI倫理的供需不對稱,AI產(chǎn)業(yè)中開始出現(xiàn)專門提供AI倫理服務(wù)的第三方企業(yè),該類企業(yè)專門研發(fā)幫助落實AI倫理原則的技術(shù)服務(wù),供缺少AI倫理相關(guān)內(nèi)置產(chǎn)品的人工智能技術(shù)企業(yè)使用。AI倫理產(chǎn)業(yè)化發(fā)展需要積聚眾多科技企業(yè)的智慧和力量,鼓勵、引導(dǎo)AI倫理服務(wù)企業(yè)的創(chuàng)新和發(fā)展,是推動AI倫理落地的長久之策。

AI倫理創(chuàng)業(yè)公司

搶占細分領(lǐng)域賽道,

倫理服務(wù)趨向精細化和專業(yè)化

  目前,細分不同倫理領(lǐng)域,提供專業(yè)精細服務(wù),是國外AI倫理企業(yè)迅速搶占市場,樹立品牌特色的主流做法。提供倫理服務(wù)的初創(chuàng)公司并非提供一攬子面面俱到的服務(wù)內(nèi)容,而是根據(jù)細分的倫理要求提供專業(yè)度高的精細化服務(wù)?,F(xiàn)階段,各類初創(chuàng)公司主要關(guān)注于如實現(xiàn)可解釋性要求、實現(xiàn)公平性要求、風(fēng)險管理、倫理審計等服務(wù)內(nèi)容。根據(jù)倫理服務(wù)的不同領(lǐng)域,可以將目前提供倫理服務(wù)的初創(chuàng)公司劃分為以下幾類:

  第一,立足決策穩(wěn)健,提供風(fēng)險評估服務(wù)。Parity AI公司為AI企業(yè)提供開發(fā)、監(jiān)測和修復(fù)其人工智能模型的工具方法,主要聚焦于緩解偏見、實現(xiàn)公平、可解釋性以及倫理審計。在審計方面,Parity AI創(chuàng)建了一套能夠縮減倫理審計時間的工具,該工具的運行模式為,根據(jù)客戶需求確定人工智能模型審計的內(nèi)容,進而提供相關(guān)建議,而且Parity AI幫助AI企業(yè)組織審計的全過程。審計過程中,首先協(xié)助AI企業(yè)進行內(nèi)部影響評估,在AI企業(yè)內(nèi)部針對人工智能業(yè)務(wù)進行開放式調(diào)查,在這過程中可以采用由Parity AI公司所建立的建議問題庫,其中包含超過一千個來自世界各地區(qū)AI倫理準則或相關(guān)立法的提示詞匯及相關(guān)問題;在開放調(diào)查的基礎(chǔ)上,Parity AI會提出相關(guān)倫理風(fēng)險緩解的推薦與建議。在此過程中,Parity AI能夠幫助專門的技術(shù)人員更好地理解AI倫理的原則與要求。

  第二,立足決策透明,提供可解釋性服務(wù)。2018年成立的Fiddler公司致力于實現(xiàn)AI可解釋的目標,為解決模型可解釋性、模型監(jiān)控以及模型偏差檢測等問題,開發(fā)出一套機器學(xué)習(xí)模型性能管理工具(ML Model Performance Management,MPM)。該工具的作用在于能夠有效降低算法模型的黑箱性風(fēng)險,并實時對模型的參數(shù)進行持續(xù)監(jiān)控,幫助AI開發(fā)者驗證模型、解釋模型性能以及記錄模型指標。同時,由于機器學(xué)習(xí)模型的預(yù)測質(zhì)量可能會隨著時間的推移而下降,當用于算法運作的數(shù)據(jù)和實際使用的數(shù)據(jù)不相一致時,就會產(chǎn)生模型漂移(model drift)的問題?;诖?,MPM工具還能幫助數(shù)據(jù)科學(xué)團隊跟蹤人工智能模型不斷變化的性能,并根據(jù)結(jié)果為業(yè)務(wù)主管創(chuàng)建高級別報告,如果該模型的準確性隨著時間的推移而惡化,或者顯示出偏見傾向性,F(xiàn)iddler亦可幫助該人工智能系統(tǒng)調(diào)試及發(fā)現(xiàn)可能的原因。

圖三:MPM工具的運作機制

  在定位上,MPM工具并不會替代現(xiàn)有的機器學(xué)習(xí)訓(xùn)練、部署以及服務(wù)系統(tǒng),而是在機器學(xué)習(xí)流程中扮演守夜人的角色,旨在對模型運作的全程進行監(jiān)控和解釋說明。具體而言,MPM具有兩方面的作用:一是偏離度監(jiān)測(Detect Train/Serving Skew)。當機器學(xué)習(xí)的數(shù)據(jù)發(fā)生偏離時,訓(xùn)練模型會出現(xiàn)異常并需要糾正,MPM工具能夠?qū)⒂?xùn)練數(shù)據(jù)和預(yù)測日志保存在同一個地方,使得開發(fā)者可以及時發(fā)現(xiàn)偏離。二是時間回溯(Time Travel)。MPM工具能夠為用戶提供程序倒查的功能。Fiddler官方為此舉了一個形象的例子,當銀行使用機器學(xué)習(xí)算法來駁回客戶的特定貸款申請,而招致客戶的投訴和抱怨時,使用者就可以登錄MPM系統(tǒng),就其保存的數(shù)據(jù)為客戶還原模型的預(yù)測和決策過程,從而達到AI可解釋的效果。

  Arthur公司與Weights & Biases公司同樣強調(diào)可解釋性和緩解偏見、實現(xiàn)公平性。Arthur公司努力解決人工智能系統(tǒng)中的黑盒問題,并且承認解決人工智能可解釋性問題有較高難度,目前并未形成最優(yōu)解決方案。Weights & Biases公司旨在幫助機器學(xué)習(xí)工程師分析其網(wǎng)絡(luò)的潛在問題,日本豐田公司已經(jīng)在使用Weights & Biases公司所創(chuàng)建的工具來監(jiān)測其企業(yè)內(nèi)機器學(xué)習(xí)設(shè)備的訓(xùn)練情況。

  第三,立足決策公平,提供算法修復(fù)服務(wù)。針對AI決策層出不窮的算法歧視問題,埃森哲公司致力于開發(fā)出一款能夠快速評估數(shù)據(jù)是否創(chuàng)造公平結(jié)果的倫理工具(fairness tool)。該工具運用一種能夠定義公平性的統(tǒng)計算法來識別人們是否受到了算法的不公正對待,同時還會挖掘、分析、定義公平性相關(guān)的敏感變量。例如,算法在做決策時通常不會考慮性別問題,但如果加入收入因素的考量,就會容易在男女性別間產(chǎn)生不同的決策結(jié)果。該工具會將此類相關(guān)信息納入公平性的評估范疇,同時還要關(guān)注每個決策變量的錯誤率,通過比較不同變量之間的錯誤率,分析出影響決策公平性的變量因素。同時,此前的研究表明,AI倫理對于公平性的界定存在多達21種類型的解釋方法,因此,很難對不同場景下的公平性作出統(tǒng)一定義。盡管埃森哲的倫理工具能夠減少影響公平性評估的錯誤因素,但考慮到修復(fù)程序可能會降低算法評估的準確性,因此該工具將是否調(diào)整參數(shù)的決定權(quán)交還給用戶,也即只提供修復(fù)結(jié)果的權(quán)衡選擇(trade-off),但最終交由用戶來決定錯誤因素的調(diào)整范圍。

  雖然目前AI仍無法做到對算法公平進行精確定義,但埃森哲負責(zé)任AI的前團隊負責(zé)人、現(xiàn)任Twitter公司機器學(xué)習(xí)倫理團隊負責(zé)人的喬杜里表示,該公平性工具能夠用于解決某些實際問題。2020年,埃森哲與愛爾蘭聯(lián)合銀行(AIB)達成合作,正式將算法公平工具應(yīng)用于傳統(tǒng)銀行業(yè)。AIB希望借助該工具減少算法模型的偏離度和歧視性,增進銀行AI業(yè)務(wù)的公平性和可信任度。在應(yīng)用路徑上,二者采用傳統(tǒng)業(yè)務(wù)和算法決策相配合的協(xié)作機制,共同評估銀行算法模型的公平性,包括將該工具用于檢測、評估銀行業(yè)務(wù)中的潛在風(fēng)險以及預(yù)期效果,最終取得了顯著成效。實踐證明,算法公平工具能夠基于公平的維度幫助AIB更深入地理解其數(shù)據(jù)模型結(jié)果,也使得AIB的大數(shù)據(jù)科學(xué)團隊可以借助公平性分析減少算法偏見和決策風(fēng)險,從而增強銀行使用AI的信心和能力。

科技倫理治理需要多管齊下,

以“倫理嵌入設(shè)計”的理念與實踐

實現(xiàn)技術(shù)與倫理之間的有效互動

  《關(guān)于加強科技倫理治理的指導(dǎo)意見(征求意見稿)》提出了“倫理先行,敏捷治理”的基本要求。倫理如何先行?需要倫理委員會、技術(shù)工具、倫理培訓(xùn)等多管齊下,也需要創(chuàng)新治理方式。在這方面,我們可以借鑒互聯(lián)網(wǎng)領(lǐng)域的一個成熟概念:隱私嵌入設(shè)計(privacy by design,PbD)。PbD已具有很好的實踐基礎(chǔ),可以為人工智能的倫理治理提供有益經(jīng)驗。在PbD理念與實踐的基礎(chǔ)上,人工智能產(chǎn)業(yè)需要擁抱“倫理嵌入設(shè)計”(ethics by design,EbD)這一全新的理念,并推動這一理念在人工智能實踐中的落地。各界可以一起探索“倫理嵌入設(shè)計”的最佳實踐做法、行業(yè)標準、技術(shù)指南等。

  而近年來倫理工具和AI倫理即服務(wù)的勃興豐富了“倫理嵌入設(shè)計”的理念和實踐路徑,在某種程度上,這也是產(chǎn)業(yè)界開始推動負責(zé)任創(chuàng)新,以技術(shù)的方式解決技術(shù)帶來的問題。如前所述,隨著提供AI倫理服務(wù)的初創(chuàng)公司不斷涌現(xiàn),AI產(chǎn)業(yè)中的倫理供需失衡促使AI倫理服務(wù)公司開始走向成熟化、精細化、規(guī)?;?,該類服務(wù)公司能夠在細分領(lǐng)域中提供適應(yīng)AI產(chǎn)業(yè)變化的倫理服務(wù),加速AI倫理由原則到框架再到實踐的進程,幫助AI倫理在更多使用場景和產(chǎn)業(yè)范圍內(nèi)順利落地,彌補AI產(chǎn)業(yè)中缺失的倫理一環(huán)。同時,從長遠來看,倫理服務(wù)已成為未來AI產(chǎn)業(yè)的應(yīng)有之義,盡管AI倫理服務(wù)有著廣闊的發(fā)展前景,但目前仍處于起步和探索階段,需要各界一起凝聚更多共識與實現(xiàn)機制、模式等。

  最后,在人工智能、區(qū)塊鏈、虛擬現(xiàn)實、metaverse等新興技術(shù)與模式加速演進變革的今天,科技倫理固然顯得愈發(fā)重要,但一方面需要注意不要把科技倫理當作一種華而不實的雕飾與粉飾,而需要通過真正有效的機制讓科技倫理對科技創(chuàng)新形成正向引導(dǎo);另一方面科技創(chuàng)新本就是一種不確定性的探索,無法免疫所有的風(fēng)險,因此也需要立法與倫理規(guī)范的精細平衡,平衡好安全與創(chuàng)新發(fā)展。

  作者

  曹建峰 騰訊研究院高級研究員

  胡錦浩 騰訊研究院助理研究員

(轉(zhuǎn)載)

標簽:人工智能 我要反饋 
2024世界人工智能大會專題
即刻點擊并下載ABB資料,好禮贏不停~
優(yōu)傲機器人下載中心
西克
2024全景工博會
專題報道
2024 工博會 | 直播探館 · 全景解讀
2024 工博會 | 直播探館 · 全景解讀

第二十四屆中國工博會于9月24日至28日在國家會展中心(上海)舉行,展會以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會
2024世界人工智能大會

WAIC 2024將于7月在上海舉行,論壇時間7月4日-6日,展覽時間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會專題
2024漢諾威工業(yè)博覽會專題

2024 漢諾威工業(yè)博覽會將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會,本屆展覽會... [更多]