中评社北京8月10日电/网评:善用制度优势 建构人工智能监管框架
来源:大公报 作者:邓凯
就在刚刚过去的6月,香港个人资料私隐专员公署(以下简称“私隐公署”)发布了《人工智能(AI):个人资料保障模范框架》(以下简称《模范框架》)。而在更早前的2月,私隐公署则完成了历时近半年的人工智能合规检查,对相关机构在部署人工智能系统提高业务效率时的风险和影响进行评估。
香港作为独特的法律管辖区,或许因其技术市场规模相对较小,而难以在人工智能法律监管模式上引发诸如欧盟法案那般的关注度,但不可否认,香港的人工智能治理体系颇具特色,笔者愿称之为“软法(soft law)治理示范”。结合系列专门性文件、核心思路以及底线义务等,本文将对香港的人工智能监管框架做出简要评述。
香港的人工智能治理之所以是“软法”式的,原因首先在于,自2018年以来,香港发布的多份数据科技类指导文件均不具有法律意义上的刚性约束力。2018年10月,私隐公署发表《中国香港的(数据)道德问责框架》,建议业界在运用数据科技时,应恪守“尊重”、“互惠”以及“公平”这三项数据管理价值。据此进一步衍生,私隐公署于2021年9月专门针对人工智能行业发布《开发及使用人工智能道德标准指引》,目的是协助产业持份者在遵从《个人资料(私隐)条例》相关规定下建立合乎七项道德标准的人工智能,包括:问责、人为监督、透明度与可解释性、数据私隐、公平、有益,以及可靠、稳健及安全。该指引同时附设“自我评估核对清单”以辅助当事方自我判断上述道德标准的采纳情况。
平衡新科技领域监管与发展
除私隐公署之外,本港另一个重要的科技部门亦即合并为“数字政策办公室”前的“政府资讯科技总监办公室”,则在2023年8月制订了一套更为完整的《人工智能道德框架》,旨在把人工智能的技术要求、应用标准等规范再度化约为成体系的道德价值与伦理原则。这些要素被主张嵌入人工智能的管治架构并贯穿整个生命周期,以及透过“应用影响评估”的手段来增强该框架的指引性和实操性。在细分领域中,香港金管局则在2019年底提出《应用人工智能的高层次原则》,将相关道德原则拆解细化为能在金融场景中实操的九项具体规定。
|