AI倫理邊界:西工大李團隊探索人工智能倫理計算“機器心臟專欄”
日期:2023-10-17 15:01:59 / 人氣:735

機器之心編輯部
大模型驅動人工智能進入我們的生活。從智能棋手到智能手術機器人,人工智能的應用場景逐漸涉及人類健康、隱私等安全領域。如何讓人工智能遵守倫理秩序,從而更好地為人類服務?這個問題已經擺在我們面前。
近年來,學術界和工業界都開始關注和討論人工智能的倫理治理,在倫理規范的研究方面也取得了初步進展。然而,由于AI倫理的抽象性,如何定量衡量智能系統的倫理性仍然是一個未知的問題。
西北工業大學李教授在《中國科學:信息科學》的文章《人工智能的倫理計算》中探討了倫理的可能測量方法,并試圖建立AI倫理的量化計算框架,指出倫理計算將是推動技術倫理實踐的關鍵交叉領域,也是構建倫理規范的重要基礎工具,希望引起對人工智能倫理的更多思考。倫理計算能否成為突破人工智能倫理治理困境的關鍵?
高宜蘭,雷,李,人工智能倫理計算,中國科學:信息科學,2023,DOI: 10.0000/SSI-2023-0076。
https://www.sciengine.com/SSI/doi/10.0000/SSI-2023-0076
人工智能倫理治理的致命弱點
多模態認知計算、生成式大模型等技術的突破,加速了智能系統在醫療、教育等領域的應用。智能系統越來越多地參與人類生活和決策,技術社會化的深化引發了一系列技術倫理討論。
倫理問題已經討論了很長時間。在阿西莫夫的科幻小說中,提出了著名的機器人三定律來限制人工智能的行為。然而,隨著技術社會化的深入,我們的倫理憂慮顯然不再是科幻小說或電影中的虛構場景。手術機器人值得信賴嗎?輔助決策系統的決策是否公平?生成模型的結果是否侵犯了著作權?這些技術倫理問題與當下的你我息息相關,迫切需要更具體、可操作的人工智能技術倫理治理方案。
圖1:1:AI應用場景中的決策要素對比
作為人工智能發展中的一個重要話題,人工智能的倫理治理引起了社會各界的廣泛關注。2021年12月,聯合國教科文組織發布了《人工智能倫理問題建議書》,以規范人工智能技術的發展。與此同時,各國也積極參與人工智能治理的討論。研究表明,世界各國已經就技術透明、公平、公正、無傷害和隱私達成初步共識。
圖2:人工智能的主要倫理原則
2023年10月8日,科技部、教育部、工信部等十部門聯合發布《科技倫理審查辦法(試行)》,重點對智能領域相關技術實際應用中產生的技術進行倫理審查,這是我國踐行科技倫理治理的關鍵一步,為人工智能的健康發展提供了方向。
然而,我們需要清醒地認識到,人工智能的倫理治理在取得進展的同時,還面臨著諸多問題。如何保證智能系統以良好、公平的方式做出決策?如何衡量一個系統的倫理績效或者如何評價其決策結果?如何建立統一明確的倫理標準?各種問題的深層原因在于倫理本身的抽象。注重倫理的定性分析,缺乏定量計算,使得相關規范難以付諸實踐,這也成為阿科留斯人工智能倫理治理的腳跟。
人工智能倫理計算——突破倫理量化計算的瓶頸
人工智能倫理計算是人工智能和倫理學的交叉領域。倫理原則通過定量描述、測量或模擬技術被數學符號化或算法化,智能算法的倫理性能在此基礎上受到約束。通過倫理計算,尋求機器倫理決策的量化或模擬思維,例如,如何衡量一個決策的公平性和善意性,或者機器是否可能學習人類道德決策的方式。
根據智能系統中倫理認知程度和倫理決策自主性的差異,倫理計算分為高階倫理認知和低階倫理認知兩種計算范式。
圖3:人工智能倫理計算范例
2.1高階認知倫理計算:標準化人工智能意圖
高階認知倫理計算旨在構建一個倫理推理模塊,使計算機能夠學習模仿人類的道德決策機制,規范高度自主的智能系統的道德決策意圖。
電車問題是一個經典的倫理兩難命題,也是長期困擾自動駕駛系統發展的問題。對于這種困境,我們不會有一勞永逸的選擇。不同的道德決策情境和不同的哲學觀點(結果主義倫理學、義務倫理學、美德倫理學)可能導致差異化的決策。此時,在系統中引入高階倫理計算,可以模仿和學習人類基于哲學假設或人類決策經驗的決策機制,計算出可行的機器決策,進而實現規范AI系統的意圖。
圖4:電車問題示意圖
由于試圖理解和模擬人類倫理決策的機制,高階認知倫理計算思想將面臨動機復雜和決策場景多樣的困難,機器決策需求的可解釋性也將為這類思想帶來困難。盡管如此,它仍然有助于理解人類倫理決策的機制,或者實現對更高自主性機器的有效控制。
2.2低階認知倫理計算:約束人工智能行為
低階認知倫理計算側重于倫理度量方法的建立,沒有深入理解倫理機制,通過抽象倫理概念的度量和約束優化,實現對AI行為的直接約束。此時的倫理計算并不關注系統倫理決策背后的道德動機,目標是構建一個能夠有效約束AI行為的度量指標。
其中,公平機器學習的研究就是一個典型的應用,關鍵問題是如何定義系統公平。通常表現在算法決策中減少對一些敏感或受保護屬性的偏見。通過設置公平性指標,可以量化系統在公平性指標上的表現,進一步優化倫理決策。
圖5:公平研究的一個例子
低階認知倫理計算通過倫理測量提供抽象倫理概念的計算描述,以提高倫理績效。然而,這種方法也面臨著許多問題。指標的量化需要體現倫理這一動態的、發展的因素的特點,只考慮結果的指標的衡量也得到簡化,因此明確量化指標的評價和應用范圍也很重要。然而,通過量化定義來度量和改善倫理需求為倫理治理提供了重要的幫助,這也是當前發展倫理計算的重要意義。
總的來說,以上兩種范式都是根據智能系統的倫理認知程度和決策自主性來選擇合適的方法,以保證系統行為符合倫理要求。無論是高度自主的系統(如自動駕駛汽車、手術機器人),還是低自主的系統(如輔助決策、輔助設計),倫理計算都旨在通過量化計算來規范其意圖或直接約束其行為。
人工智能倫理計算的哲學基礎
哲學倫理學,尤其是規范倫理學(研究道德決策的原則和機制,即為什么做出一些道德決策)對倫理計算有著重要的影響。目前,人工智能倫理學研究主要有三種哲學觀點,即結果主義、義務論和美德倫理學。這些不同的學派反映了人類倫理決策的不同傾向。通過不同的原則,甚至考慮經驗、情緒等因素,倫理計算可以推斷復雜情境下的道德決策。
道德決策的基本要素是道德主體,以及道德行為、決策背景和決策后果。以單個代理人的道德決策為例,代理人需要在決策背景等信息的基礎上判斷決策后果,做出道德決策。
結果主義倫理學也經常被稱為功利主義。基于這種哲學的體系傾向于權衡每一個選擇的后果,選擇道德利益最大的那個。因此,功利主義可以在現有決策背景下優化決策的道德效益函數,而決策效益需要通過一系列決策序列及其決策背景來獲得。
考察相應的決策后果,判斷最優決策序列。但事實上,并不是所有的信息在決策中都是準確的。這時候就涉及到概率意義上的優化決策結果,也涉及到貝葉斯因果推理。
義務倫理強調決策者在一定條件下尊重義務和權利,此時行動者傾向于按照既定的社會規范行事。采用這種決策哲學的系統可能涉及計算量化中邏輯規范或某些規則約束的表達。
德性倫理要求決策者按照一定的道德價值觀行事和思考,同時具有德性的行動者會表現出一種被他人認可的內在動機。人品高于行為,人品好才會有好的行為。這種規范的倫理理論不同于優化結果的功利主義或遵守規則的義務倫理,會更傾向于從實踐中學習,在計算中需要從一些經驗集中收集數據。
中學階段的學習會更多地利用描述性倫理學的實證結果(研究人類的倫理決策,但不評價它),同時也自然與當前的各種數據挖掘和學習算法密切相關。
從以上討論可以發現,倫理計算是人工智能和哲學倫理學之間高度交叉的研究課題,其計算策略和應用范圍需要更多的交叉討論。
人工智能倫理計算的意義、挑戰和前景
隨著智能向人類社會各個領域的滲透,倫理治理成為人工智能健康可持續發展的必要問題。倫理計算理論和技術的研究可以推動抽象倫理的量化分析問題,這可能成為約束人工智能遵循人類倫理的一把鎖,也是打通AI應用的一把鑰匙。
人工智能是大勢所趨,相關的立法和規范也會逐漸出現。誰來制定這些規則?是對領域比較熟悉的研究人員,還是對具體技術了解不夠的群體?這個問題很難回答,但至少,人工智能倫理的數值衡量可以為規則指定提供一個參考指標體系。
倫理計算的核心是通過量化計算將抽象的倫理具體化,強調將公平、透明、隱私保護、可信等倫理原則融入到計算技術的實踐中。這不僅有助于人工智能的可控發展,也將鼓勵研究人員在構建算法系統時更深入地理解技術倫理,更積極地考慮倫理問題。同時,它還將為制定道德治理原則、法律和法規提供至關重要的技術參考指標。
然而,倫理計算也面臨許多挑戰。在自主搜救、無人巡檢等開放的安防場景中。,智能系統需要動態感知和適應環境變化的能力,以降低潛在的倫理風險。同時,倫理決策通常涉及情感和認知因素,因此需要借助多模態認知計算和因果推理等技術來處理倫理推理的復雜性,也需要更多地了解人類的倫理決策方法。這些挑戰需要跨學科的合作,以確保倫理計算技術能夠有效地處理不斷發展的倫理問題。
總之,人工智能倫理計算將是推動倫理治理發展的重要工具。通過推動倫理治理理論和實踐的迭代發展,倫理計算將更安全地釋放人工智能的潛力,有望在協助法律法規的制定、確保人工智能以符合倫理道德原則的方式發展,最終造福人類社會方面發揮作用。
來文提交人介紹說:
李,西北工業大學學術委員會副主任,光電與智能研究院(iOPEN)教授,主要研究方向為領域安全、圖像處理與成像。
參考閱讀:
李,多模態認知計算,中國科學:信息科學,53 (1),1-32,2023,DOI: 10.1360/SSI-2022-0226。"
作者:杏耀注冊登錄測速平臺
新聞資訊 News
- 科學是如何淪為了大國博弈的棋子...11-23
- 大疆“密會”投資機構:不提上市...11-23
- 奧特曼都點贊,谷歌Gemini 3 P...11-23
- 吉爾莫·德爾·托羅《弗蘭肯斯坦...11-23

