Connect with us

國際

訪問:聯署港大學者:未必災難結果 安全機制關鍵

發佈於

【明報專訊】有份聯署聲明的AI安全中心(CAIS)哲學研究員、香港大學哲學系助理教授薩拉丁(Nathaniel Sharadin)昨天接受本報書面訪問,他表示AI正處於快速發展、但完全缺乏監管的狀態,情况令人擔憂。他表示現階段難以預測AI系統的發展方向,原因在於這取決於人們如何管理AI發展。他亦認為,AI並不一定帶來災難結果,相反AI潛能巨大,有力造福人類,但這只會在人類合力製造安全環境下才會發生。

AI發展方向難料 取決如何管理

聯署聲明提及減輕AI帶來人類滅絕風險,應與疫情大流行及核戰等社會規模風險,同被列為全球優先處理項目。薩拉丁指處理AI風險或會因AI發展快速而變得困難,與此同時減輕AI風險的管理方式及規則跟應對疫情與核武擴散完全不同,但亦可從應對後兩者汲取經驗。他舉例,最近有人建議應用國際原子能機構(IAEA)審查民用核計劃的模式,審查大規模的圖形處理器(GPU)運用,藉此監管大型的AI訓練。

可參考IAEA審查民用核計劃

薩拉丁表示,減輕AI風險的最佳做法是共同制定國內以至國際間的強力和有效管理制度。他又認為帶來災難並非AI發展的唯一結果,相反它或能帶來經濟變革、大幅改善人類福祉與幸福感,而這些AI發展前景切實可期,但只會在全球共同制定出安全機制下才能實現。

明報記者 曾永昌

繼續閱讀
贊助商