人本智能的深化發(fā)展將建立在創(chuàng)新變革、安全規(guī)范等多重維度的平衡之上。這需要通過有效的治理策略來實現(xiàn)平衡, 規(guī)避 AI 繁榮背后潛藏的風險。由此引出的 AI 治理和實踐,不僅是技術層面的問題,更是社會問題,需要全社會共同 面對。作為目前 AI 領域主力軍的頭部科技企業(yè)亦紛紛擁抱 AI 倫理和治理,并努力將“人的因素”納入產(chǎn)業(yè)布局和實 踐當中。
根據(jù)騰訊研究院高級研究員曹建峰的總結 ,2016 年至今,從原則到實踐,AI 科技倫理成為“必選項”經(jīng)歷了如下三 個階段。
原則爆發(fā)階段:全球各大行業(yè)和一些知名企業(yè)及研究機構提出了自己的 AI 倫理原則。2016 年,谷歌、微軟、亞馬 遜、Facebook、IBM 等五大科技公司聯(lián)合成立了“人工智能伙伴關系”(Partnership on AI),旨在促進 AI 技術的公 益、安全、可信、透明和可理解性,以及保護人類的社會和文化價值。2017 年,歐盟委員會發(fā)布了《歐洲人工智能戰(zhàn) 略》,提出了“人本”的 AI 愿景,強調(diào) AI 技術應該尊重人類的尊嚴、自由、民主、平等、法治和人權,并提出了一系列 的行動計劃和措施。
共識尋求階段:加強 AI 國際治理,OECD 等機構主張推動建立國際公認的倫理框架準則。2019 年,聯(lián)合國教科文 組織發(fā)布了《人工智能倫理問題報告》,提出了“人類中心”的 AI 原則,強調(diào) AI 技術應該以人類的尊嚴和權利為核心, 以人類的多樣性和包容性為基礎,并提出了一系列的倫理指導和建議。
倫理實踐階段:很多企業(yè)都在探討如何將 AI 原則貫徹到日常技術實踐中。例如,Google Cloud 采取措施打造負責 任的 AI;微軟設立負責任 AI 辦公室,全面推進負責任 AI 的落地實施。
已有的行業(yè)實踐包括設立倫理委員會,組織培訓和審查,以確保在設計活動中考慮倫理要求;構建“AI 模型說明書”, 推動 AI 算法的透明性和可解釋性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事 實清單等。行業(yè)實踐還包括以倫理工具方式呈現(xiàn)的“倫理即服務”,針對可解釋、公平、安全、隱私等方面的倫理問 題,研發(fā)并開源技術工具。例如,IBM 根據(jù)其 AI 倫理的五大支柱——可解釋性、公平性、魯棒性(穩(wěn)健性)、透明性、 隱私性,提出了 5 種針對性的技術解決方案
商用機器人 Disinfection Robot 展廳機器人 智能垃圾站 輪式機器人底盤 迎賓機器人 移動機器人底盤 講解機器人 紫外線消毒機器人 大屏機器人 霧化消毒機器人 服務機器人底盤 智能送餐機器人 霧化消毒機 機器人OEM代工廠 消毒機器人排名 智能配送機器人 圖書館機器人 導引機器人 移動消毒機器人 導診機器人 迎賓接待機器人 前臺機器人 導覽機器人 酒店送物機器人 云跡科技潤機器人 云跡酒店機器人 智能導診機器人 |