《DJ社論》AI熱潮與其治理,「信任」是關鍵
2024/06/06 13:48
MoneyDJ社論
今年的COMPUTEX台北國際電腦展展會期間,毫無意外「AI人工智慧」成為最大亮點。然而在產業生態圈一片欣欣向榮、科技大廠紛紛宣示要開發更多AI應用,甚至掀起「產業革命」的浪潮之時,我們認為,政府與民間應謹慎思索AI所帶來的安全風險、甚至信任危機,而先退一步——或許尚且不談AI——落實數位時代信任基礎的數據治理、資料治理,如此才有機會在生成式AI的時代,建構真正的信任。
NVIDIA執行長黃仁勳在6/2晚間的主題演講上頭,有張投影片的標題引用了醫學界希波克拉底誓言(Hippocratic oath)而改寫為「Hippocratic AI: do no harm.(AI的希波克拉底規範:不做有害之事)」,而這句話,事實上正幽微地反映著人類社會對於AI後續發展、或有失控風險的擔憂。
即使不把《魔鬼終結者(Terminator)》或者《駭客任務(Matrix)》系列電影當作AI的末世預言——AI會不會反過來統治人類、甚至毀滅人類?——在帶給人們生活方便的同時,AI實際上所可能產生的信任風險,往往是落在每一個日常生活的決策之處。比如說,AI輔助判讀的醫療檢驗結果、投資交易決策的擬定與執行,乃至自動駕駛車輛的判斷可能導致事故等等,必須要透過掌握AI演繹的邏輯依據,才能達成在AI產業落地、應用更加多元之前就建構起對AI判讀理據的信任。
然而,在談「AI的信任治理」之前,其根本應該不脫數據治理與資料治理的倫理。科技始終來自於人性,也都為人所用,單是日前一樁「電信業者能否提供去識別化資料作為政治輿情分析工具」的事件,就擾亂了在科技上可行的事、卻可能因遭逢濫用而導致信任危機的一池春水,就更別提AI工具可能帶來更強大、更以假亂真的身份偽冒、甚至深度偽造(deep fake)所帶來的信任危機。
固然如黃仁勳所說,最強大的AI就是讓兩組模型相互對弈、對辯,乃至「讓機器人學著當機器人(Let the robots learn how to be robots)」從而形成AI模型中的最佳解方,我們認為,在AI發展、乃至應用落地時的持續監控,並且融入「人」的因素以確保資料當中的隱私與安全不被侵犯,並加上演算法的調校工作,才能確保AI「不做有害之事」——是的,當時微軟的Bing AI甫上線沒多久,就被人類教會講髒話、開黃腔了,這件事情大家應該也都歷歷在目吧。
科技發展始終走在規範之先,這是人類文明發展的必然。我們也樂見數位部參與國際AI治理社群,致力推動可信任AI的努力,而如何促成政府、民間在數位資料治理上更加把勁,避免資料濫用、且阻絕AI所引發「以假亂真」的種種風險,讓AI真正成為通往更有效率生活的助力,而非數位時代的道德隱憂,還有待大家的努力。
|
|
|
|