又可稱為可信任AI(Trustworthy AI)、負責任AI(Responsible AI)。
1992 年,Bill Gates 提出「電腦有一天將能夠理解人類」的願景,這種能力包括看得到、聽得懂、能夠交談並理解人類。隨著數位轉型的加速以及對人工智慧(AI)的廣泛應用,人們對於圍繞著AI的未知性有著與生俱來的恐懼,因此,這類的相關議題一直被討論著。科學家們或是企業必須仔細思考將如何計劃AI的使用、如何測試AI,及如何識別且糾正錯誤和意外產出的結果、或防止對人類產生危害的地方、或造成某些人被歧視等等,無論身為產品開發者或佈署者,都應該以負責任的方式使用 AI 技術。
微軟曾在2018年公佈AI六項準則,包括公平性、可靠性與安全、隱私及資安、包容性、透明度及當責等,確保AI以值得信賴的方式被建構。
深化、擴展可信賴AI採用和規模時,需要考慮的三個重點領域:
(1)資料:創建可信任的資料。須謹記就算是只有單一變數也會產生偏差及錯誤,對於這些問題的識別、進而解決;資料必須獲得適當的使用者同意、許可和持續性治理,以確保其被適當使用。
(2)模型:這樣的模型或解決方案,必須考慮到符合企業核心業務、公司價值與對消費者的責任。
(3)人:人們開始要求更多的AI模型做出決策與細節,企業必須思考該如何確保對於AI的可解釋性。
「AI治理規範」已成為新議題,目的是要達到信任,防止不當侵害、負面影響。關鍵原則為「可信賴、普惠、永續」。