《WAIC UP!》作為世界人工智能大會(WAIC)旗下首份刊物,持續(xù)邀請全球AI及跨領(lǐng)域的先鋒力量,共同釋放思考的力量與智慧的主張,探究關(guān)乎技術(shù)躍遷、自我邊界和未來文明的無限可能。
本期《WAIC UP!》以「AI: The Only Way is UP!」為題,回應(yīng)當(dāng)下AI飛速進(jìn)化所引發(fā)的時代叩問:我們究竟希望AI駛向怎樣的方向?
我們試圖捕捉AI超越“工具理性”的微光時刻,在那些AI向上突破、向好生長、向善進(jìn)化的瞬間,回望技術(shù)的溫度與價值。
本期嘉賓王國豫,將與我們共探——當(dāng)AI技術(shù)越過情感、倫理與生命的邊界,我們該如何重新認(rèn)識“人”的本質(zhì)?當(dāng)算法不斷走進(jìn)生活深處,誰來為它的決定負(fù)責(zé)?
王國豫
復(fù)旦大學(xué)哲學(xué)學(xué)院教授
科技倫理與人類未來研究院院長
哲學(xué)博士
王國豫是國家倫理委員會醫(yī)學(xué)倫理分委員會委員,上海市人工智能治理專家委員會委員。專注于生命醫(yī)學(xué)與人工智能倫理、新興技術(shù)治理等方向。長期參與中國科技倫理政策制定及相關(guān)倫理指南起草,倡導(dǎo)負(fù)責(zé)任創(chuàng)新,推動倫理制度化建設(shè)與公眾意識提升。參與WHO醫(yī)學(xué)人工智能倫理專家建議修改,具備全球視野與深厚學(xué)術(shù)影響力。
高能前瞻——
《AI倫理專題報告——王國豫:AI倫理治理要充分尊重人的主體性和社會多元價值觀念》
文章目錄:
1、數(shù)字復(fù)活的倫理悖論
2、AI成癮的倫理尺度
3、AI對齊的倫理困境
4、算法決策中的責(zé)任空白
「數(shù)字復(fù)活的倫理悖論」
AI的“溫柔”是否能真的撫慰失去親人的創(chuàng)傷?在王國豫看來,AI復(fù)活并非單純的科技慰藉,它還涉及對生命本質(zhì)的追問與遺忘的倫理爭議。
“遺忘雖然是人類的‘缺陷’,卻也是人類向前的必要前提,也是人的權(quán)利。沒有遺忘的人,其生活將會變得非常沉重。借助于數(shù)字技術(shù)復(fù)活親人的音容笑貌,在一定程度和一定范圍內(nèi)也許可以彌補突來的情感遺憾,但是這畢竟不是真實的。如果我們總是活在虛擬的世界里,那么真實的世界將會被忽視,對個人的身心健康也是不利的。”
在“數(shù)字永生”概念走紅的當(dāng)下,不要讓科技打亂了生命與告別的節(jié)奏。
「AI成癮的倫理尺度」
成癮已不僅僅是個人問題,更是一個系統(tǒng)性的社會病灶。
在王國豫看來,人類對AI的依賴,不止于工作效率,而正在改變我們的思維習(xí)慣、情感結(jié)構(gòu)與社會互動方式:
“我認(rèn)為我們現(xiàn)在需要真正地從結(jié)構(gòu)上分析人工智能為什么會讓人上癮。除了個人原因之外,這里面還有家庭的原因、社會的原因、教育的原因,以及企業(yè)的原因。我們整個社會需要進(jìn)行反思,政府也需要通過立法來加以規(guī)范。”
「AI對齊的倫理困境」
技術(shù)倫理無法靠程序撰寫,它必須回到人類的自我審視。
AI“價值對齊”常被視為化解風(fēng)險的希望,但王國豫提出了根本性追問:AI并沒有“反思能力”,它只是按反饋趨利避害。
“現(xiàn)階段來看,人工智能還沒有自我意識,不能反思,因而也不具備判斷真假善惡的能力。另一方面,人類的價值觀是多元的。你對齊的人是誰?你按照什么方式對齊?這本身也涉及很大的問題。”
「算法決策中的責(zé)任空白」
技術(shù)介入越深,責(zé)任歸屬越模糊,王國豫認(rèn)為:
“責(zé)任本身是系統(tǒng)性的,尤其在人工智能時代,這會涉及多方主體。那么在此之前,我們就應(yīng)該構(gòu)建一個詳細(xì)的責(zé)任模型,包括主體責(zé)任、連帶責(zé)任、因果責(zé)任、前瞻性責(zé)任等,不同層次的責(zé)任應(yīng)該明晰清楚地展現(xiàn)出來。一旦出現(xiàn)模型內(nèi)的相關(guān)情況,就應(yīng)立即觸發(fā)預(yù)警,明確誰應(yīng)該負(fù)責(zé)。這一切都應(yīng)該是前瞻性的,而不至于等到事故發(fā)生后,責(zé)任就蒸發(fā),誰都沒有責(zé)任,就剩下機器的責(zé)任。”
科技不是擋箭牌,必須用制度性設(shè)計為倫理保底。
讓我們隨王國豫一起,在哲學(xué)的目光中重新審視技術(shù)的權(quán)力邊界,為未來設(shè)定可思考、可對話、可負(fù)責(zé)的底線。
(來源:世界人工智能大會)