個人資料私隱專員公署公布指引,協助機構制定使用生成式AI的內部政策。私隱專員鍾麗玲表示,不少企業以生成式AI提高產品質素,用作起草文件或製作短片,而生成式AI特別是言語模型,需要很大量數據及文字。她提醒有關機構輸入顧客資料,是受私隱條例規管,如果涉及改變用途目的,需要取得客戶同意。
私隱專員公署
鍾麗玲在電台節目表示,在2023及2024年也做過兩次調查,發現使用AI的企業中,接近65%有採用數據安全防護措施,例如是加密程序或存取管控。她認為進步空間仍然很大。
鍾麗玲。資料圖片
公署調查又發現,超過55%企業已制定或計劃制定AI安全風險政策。鍾麗玲說今次發出指引是期望企業跟隨署方的清單,像「執藥」一樣,制定清晰的政策,了解甚麼資料可以輸入。
資料圖片
鍾麗玲又提到,暫時並不多企業就生成式AI資訊或圖像,加上標籤或水印,但其他司法管轄區包括外地及內地已有相關法規。
數字政策辦公室公布《香港生成式人工智能技術及應用指引》,有關指引旨在為技術開發者、服務提供者及使用者,提供應用生成式人工智能技術的實務操作指引,內容涵蓋生成式人工智能技術的應用範圍、應用局限、潛在風險與治理原則,包括需關注的資料洩露、模型偏見和錯誤等技術風險等。
數字政策專員黃志光。資料圖片
數字辦早前委託「香港生成式人工智能研發中心」(HKGAI),透過實踐應用並收集業界意見,就生成式人工智能技術及應用的準確性、責任、資訊保安等範疇,研究及建議適當的規則和指引,數字辦經研究後制定《指引》,目標在於平衡人工智能的創新發展、應用與責任,為人工智能生態圈中各持份者,建構一套符合香港情境、具本地特色的治理框架。
資料圖片
數字政策專員黃志光的世界互聯網大會亞太峰會人工智能大模型論壇上說,政府冀透過《指引》促進業界與公眾以安全及負責任的方式,發展及應用生成式人工智能技術,在鼓勵人工智能技術創新應用的同時,減低風險,以促進生成式人工智能在香港的普及發展。
數字辦會持續審視生成式人工智能的最新技術及應用發展,並與相關團體保持聯繫,定期更新指引的內容。