AI實踐應用正在隨時間呈指數式增長,與此同時,需要AI增進福祉的人類共同體卻陷入全球文化價值危機。AI倫理治理需要面對怎樣的難題?
“社會性機器人”包括機器人護理、機器人同伴、機器人警察、機器人同僚等,它們具有實際的行動能力與自主性,它們對人類社會的沖擊會遠勝于目前大語言模型或是AI影像生成的影響。社會性機器人應該具有哪些品德與情感程序,從而促使它們做出符合人類普遍價值與道德體系的抉擇?
為了探討這些前沿問題,華東師范大學于2024年6月5日舉辦了一場“AI聚力”學術沙龍(暨思與文講座第134-135講),探討AI倫理治理與社會性機器人問題。本次沙龍由華東師范大學中國現代思想文化研究所、華東師范大學人文與社會科學研究院聯合主辦,華東師范大學哲學系應用倫理中心、上海中西哲學與文化比較研究會承辦。

本次論壇分為主題研討和圓桌討論兩個環節。主題研討環節由美國加州州立大學富樂敦分校劉紀璐教授、西安交通大學王小紅教授主講,華東師范大學中國現代思想文化研究所暨哲學系陳赟教授、華東師范大學哲學系潘斌教授主持。圓桌討論環節由華東師范大學哲學系應用倫理中心張容南教授主持。
一、社會性機器人

劉紀璐教授做了題為“如何設計社會性機器人的道德基本素養:儒家美德及其影響”的主旨發言。劉教授首先厘清了AI倫理與機器人倫理的概念范疇,表明自己主要研究的是機器人倫理學暨如何設計、應用、對待機器人,以及機器人的道德性這兩個問題。劉教授特別提到自己的研究聚焦于社會性機器人,這類機器人需要與人類進行高度互動,未來甚至可能具備獨立的思考和行動能力。因此,面對現有機器人的高速發展以及未來可能會出現的困境,如何設計機器人的道德素養成為了一個重要議題。對此問題,劉教授一方面反思了過去對人工道德主體所要遵循的倫理理論的選擇,另一方面提出自己的構想,暨參考儒家的品德倫理學與道德情感論,不依賴于行動本身而從行動者出發,建構出具有持續性的道德“人格”的機器人。
進一步地,劉教授結合學者Bertram F. Malle的主張為自己的構想做出具體闡釋,支持目前先以機器人的“道德勝任性”為目標,日后再考慮如何建設機器人的道德主體性。她轉述一位哥倫比亞大學教授的主張:我們對AI以及機器人的發展,應該采取導引(steer)而非畏懼(fear)的態度。根據Malle的闡述,“道德勝任性”包含六個關鍵要素,分別是道德語匯能力、道德規范性、道德認知能力、道德情感、道德決策性與行動性,以及道德溝通能力。劉教授特別指出,道德規范性不宜局限于地區性和單一性,而應當構建一個普遍多元的價值規范。在此基礎上,劉教授詳細解釋了選擇儒家倫理來建立機器人美德的五個原因:(1)儒家倫理強調親疏有別,更適合于機器人與人類建立親密關系;(2)儒家倫理強調終身學習,可以用來加強機器學習的永無終止;(3)儒家品德倫理所列舉的美德意涵復雜深刻,不是僅僅針對人類的缺點,而同時可以適用于機器人的品德構造;(4)儒家對處理人與人之間關系的重視有助于建立一個有德合群的群體;以及(5)儒家品德倫理學是一種道德精英倫理,目標不是僅僅建造擬人的機器人,而更是要制造機器人中間的君子圣賢。
對于儒家繁多美德的選擇,劉教授主張選擇“仁義禮智、忠信誠敬”八個美德加入機器人倫理設計,以作為機器人倫理建設從上而下的基本結構。她也強調機器人必須從下而上,從有德之人的案例中學習道德認知,在與人互動中學習人類的價值取舍。她認為機器人的價值建構一定需要“人在環路”,用問卷方式考察人對有德機器人的期望。她認為她在2022年所做的問卷調查與結果數據,可以印證儒家美德的有用性。
最后,劉紀璐教授再次強調,道德情感對于機器人而言并非可有可無, 而是具有其必要性。機器人必須擁有一些道德情感,才能作出正確的道德抉擇。她認為不是所有人的正面負面情感都需要設計給機器人。她所選擇的是孟子所說的“四端”——四種使道德可能的道德情感。她認為這些道德情感不是基于身體生物性的反應,而是建立在道德判斷,是種認知性的情感,與之配合的也可以選擇愛、同情、遺憾等自然情感。當然,在目前階段只能期待機器人具有“道德勝任性”,可以正確做出“合乎道德性的”道德判斷,道德溝通,道德抉擇,與道德行為。至于未來如何從表象深入到實質層面,構建機器人“出乎道德”的道德主體性,仍然是個值得商榷且具有挑戰性的任務,劉教授期待有更多的儒家學者加入研究。
