Connect with us

即時港聞

私隱公署推AI模範框架 鍾麗玲:可按機構規模採納合適措施 (10:55)

發佈於

個人資料私隱專員公署昨日發布《人工智能(AI):個人資料保障模範框架》,向使用AI的機構提供有關保障個人資料私隱方面的建議及最佳行事常規,當中亦建議機構制定AI事故應變計劃。私隱專員鍾麗玲於新城《財知大道》表示,《框架》提供具體貼地的指引,機構不一定要實施所有措施,可按其規模、採購AI的目的及系統規模等考慮適合採納的建議。她又說,若中小企就實施《框架》內容需要協助,公署可針對其需求提供相關的內部培訓課程。

她表示,《框架》內容淺白,並無太多技術用語,主要羅列符合規定的原則,相信一般機構都容易理解內容。被問到若機構無跟從會否有後果,鍾麗玲表示,若公署收到投訴或主動審查時,發現機構無落實或違反《框架》的措施,會一併考慮其使用AI系統的目的及情况。

另外,鍾麗玲於港台《千禧年代》表示,AI需要大量數據去訓練系統,使用時或會收集個人資料、語音、影像等資料,或可帶來多項風險,包括個人資料外泄、版權問題、輸出結果涉歧視或非法成分、數據庫遭「投毒」令資料不準確等,她舉例指,韓國曾有科企公司的職員培訓及意識不足,在AI系統輸入公司原始碼資料,或令公司敏感數據被儲存於AI數據庫,當有第三方詢問相關問題,AI系統的回答或會披露該公司敏感資料。她建議機構要持續監督AI系統。

《框架》建議,公司可就使用AI系統作風險評估,視乎風險高或低去決定人為監督的程度。鍾麗玲稱,向客戶提供資訊的AI系統屬風險低,可考慮全自動化操作;涉及醫療診斷的系統風險則較高,應在每個決策過程人為覆核結果,減少出錯。她亦建議機構可參考框架6個步驟的內容,即界定、監察、通報、防止事故擴大、調查及復原,制定AI事故應變計劃。