可信任人工智能和人工智能治理的监管系统
在工业制造中,嵌入式AI电脑可以支持运算、影像等处理,提高用户在作业上的效率即准确性。 随着人工智能的趋势逐渐升温,在商务、制造、金融、健康医疗、交通运输等领域,都能看到人工智能协助产业的分析与决策所带来的价值。 然而,人工智能推论的过程中,风险涉及的议题,包含隐私保护、安全性、系统透明等都是需要被检视是否有误或对人类产生危害的部分。
针对AI系统的治理议题,如何透过风险管理及机制确保AI的可信任性,已成为全球多数国家、国际组织高度重视的议题。 在2019年OECD发布AI原则、美国政府提出美国人工智能倡议; 2020年美国政府发布人工智能应用监管指南及13960号行政命令在AI创新及政策上取得平衡; 2021年欧盟执委会提出人工智能法草案。 为了实现可信任AI,国际间陆续尝试透过立法、规范制定来系统性测量、评估AI所涉及的风险及效益。
美国国家标准与技术研究院积极投入研究人工智能系统可信任度的评估、测量规范、定义。 2021年,研究院提出倡议,旨在人工智能系统能否被适当、准确的衡量并列出八个特征,有效且可靠、安全性、可归责与信息透明度、可解释性与可诠译性、隐私保护、公平性—有害偏见管理,在技术、社会环境、管理等面向来衡量人工智能及人工智能提供的决策。
我们下周再见啰! :)
2024-08-26