人工智慧(AI)、乃至生成式人工智慧的發展,正在快速改變人類的社會互動方式與潛在對於商業模式的影響,有朝一日,更可能進一步進入搭載生成式AI的機器人輔助人類工作、生活的「未來世界」。然而,水能載舟、亦能覆舟,對於如何治理AI,讓工具為人所用、而非為惡損害,有賴一套具備完整治理架構核心的人工智慧基本法。更重要的是,在科技發展的道路上,如何有效緩和技術發展、既有道德與法制監理所可能產生的彼此矛盾與衝突,找到一個最佳平衡的過程。
我們肯定國科會已在日前公告《人工智慧基本法》草案的立法預告。其中條文將該基本法視為AI治理的最高法律層級,其功能近似社會福利基本法、教育基本法、環境基本法、乃至通訊傳播基本法等,以「義理式」的條文,規範AI產業與技術發展的法治邊界與立法目標,而未細節地賦予各相對方的責任、義務。
在該基本法草案當中,最重要的第3條,已經提出人工智慧發展的「目標」是要為人類社會謀取福祉,可為是最重要的條文,包括:永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視,以及問責。
然而,相對地,這樣的基本法形式主要是為了形成法治理的有效邊界,在實際執行與推動時,不可能單靠基本法,而是要靠各權責與相關機關在訂定作用法時的仔細思考,來避免各作用法在執行時可能產生的相互矛盾。
就這點而言,《人工智慧基本法》草案,正因為缺乏了單一責成的主管機關——而可能落入上述的窘境,比如說,未來在經濟部訂定相關作用法法案、談及AI發展的個資風險層級,會不會與數位發展部的版本有所衝突?這都是必須進一步思考的,否則《人工智慧基本法》當中的「問責」一環,就可能只是落得白日夢一場。
而國家要完備AI治理,自然不可能一蹴可幾,但是面對AI應用場景滾動加速發展中的各式態樣, 政府勢必得跟時間賽跑,加快統合與各公部門相關所涉的專責領域,共同提前應對AI「未來世界」的潛在問題。如同美國,除了在2022年提出「AI權利法案藍圖」外,拜登政府更進一步於2023年10月發布AI行政命令,也是要訂立聯邦各部門AI發展進程中所需推動的任務。
另一方面,《人工智慧基本法》似乎並未能合理處理在各種「發展過程」中可能閃現的違法、或法律未及制定的領域——比如說,在缺乏最高管理機關的狀況下,由誰來主管、監督AI發展的實驗性場域?AI相關訓練過程中所取得資料的「隱私議題」與「無法完全去除個資」狀況下,是否違反個資保護法?運用AI輔助工具對公眾切身事務的預測(如氣象模型、路況辨識等),存在誤差值過大的實際責任歸屬?生成式AI訓練過程中,與既有的文化創作著作權所有者的權益該如何區分?這些問題,都是在《人工智慧基本法》立法之時,我們不可能避免要「多想一想」的問題。
我們認為,政府在應對AI治理上,除了催生「人工智慧基本法」的法條文本外,在沒有單一責成的主管機關情況下,未來若要能適時接得住AI發展各階段進程中所遇到的錯綜複雜狀況題,宜預先規劃有如應變中心角色的開設機制,由其全權處理問題個案的跨部門協調、資訊調閱與執行面統籌,推動夠全面性的解決方案,以利於最終在不同的問題個案中都盡可能梳理出科技/道德/法制的平衡點。
我們喜見該基本法草案已大致確立其監管與治理範圍,不過科技發展的本質,就是在其為人「所用」的時候,一定會有法律尚無法解決、定義的使用行為出現。如基本法草案中所述,人工智慧技術將成為加速推動數位轉型與永續發展的重要環節,那麼隨之而來的,AI應用發展上的安全且可信任框架測試,必然也將逐步涉入深水區,政府得及早因應。
在後續各部會與AI發展相關的作用法立法時,我們期待政府與立法機關採用風險導向評估與更符合比例原則的法規架構,在發展與治理間找到平衡,在隱私安全與資料開放間找到平衡,在著作權維護與推動AI創新之間取得平衡,才更能在具體實現人工智慧與人類社會、乃至產業、生活接合時,能夠確保其開放、兼容,平等與可問責的制度。