MoneyDJ新聞 2023-03-21 12:38:56 記者 郭妍希 報導
人工智慧開發商OpenAI執行長Sam Altman警告,旗下超熱門的聊天機器人「ChatGPT」可能被用來進行網路攻擊,坦承他「有點害怕」(A little bit scared of this)。
Altman最近接受ABC News專訪時指出,AI科技將重塑社會,雖伴隨真正危險,卻也是「人類史上最偉大的科技」,能大幅提升生活品質。不過,他說AI必須謹慎以對,「我們有點害怕AI,人們該為此感到開心」。
Altman警告,「我特別擔心這些模型可能被用來製作大量錯誤資訊。AI愈來愈會編寫程式碼,未來恐被用來進行侵略性的網路攻擊。」
科幻片經常警告,AI模型不需要人類,會自行做出決定、密謀控制世界。對此,Altman並不擔憂,表示AI模型需要人類輸入指令,「是一個備受人類控制的工具。」他比較擔心會有人解除OpenAI加諸AI的安全限制,社會必須在有限時間內想出如何監管、應對。
俄羅斯總統普丁(Vladimir Putin)2017年曾在開學首日對學生說,誰能領先AI賽局、誰就能「統治世界」。對此,Altman表示,「這項聲明確實令人不寒而慄。」
Altman並對ChatGPT等AI語言模型出現「幻覺的問題」(hallucinations problem)示警,因為這會生成錯誤資訊。他說,「這種模型會看似自信地陳述某件事情,實際上卻捏造假資訊。」應該要將這些模型視為推理引擎(reasoning engine),而非講究事實的資料庫,「我們希望AI擁有的能力更偏向推理,死背強記並非重點。」雖然GPT-4產出正確資訊的機率比前代GPT-3.5高40%,Altman仍鼓勵用戶複驗生成的內容。
對於人類飯碗是否不保,Altman認為AI近期就可能取代部分工作,也對發生的時間有多快憂心不已。他說,「過去幾個世代,人類已證實能完美適應重大科技變革。然而,若科技不到10年就驟變,究竟會造成甚麼影響,是我最擔憂的問題。」
OpenAI日前宣布推出最新版大型語言模型「GPT-4」,聲稱能在美國大學的入學SAT測驗擊敗90%人類、並在律師資格考試(Bar examination)擊敗90%受試者。
另外,谷歌(Google)最近更新的醫學領域大型語言模型「Med-PaLM 2」,在專業醫學測驗已達「專家」等級。
(圖片來源:Shutterstock)
*編者按:本文僅供參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。