欧盟发布 AI 伦理准则

2019年4月12日 | By News | Filed in: News.

http://bit.ly/2P24Zzn

欧盟委员会发布 AI 伦理准则,同时宣布启动 AI 伦理准则的试行阶段,邀请工商企业、研究机构和政府机构对该准则进行测试。该准则由欧盟 AI 高级别专家组起草,列出了 “可信赖人工智能” 的 7 个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将 “人工智能” 定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。根据官方解释,“可信赖的人工智能” 有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。举例来说,如果人工智能在未来诊断出一个人患有某种病症,欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断,也不会无视人类医生的反对意见,患者可以自行选择获得对诊断结果的解释。

IT.数码

via Solidot https://www.solidot.org

April 11, 2019 at 07:30PM


发表评论

电子邮件地址不会被公开。 必填项已用*标注