人工智能道德准则草案在欧洲首发 面部识别成最大争议

2018-12-25 13:40:05来源: a&s智慧生活

[摘要] 草案的一大亮点在于其特辟一个章节讨论人工智能所引发的争议性问题,这些问题引起了欧盟人工智能高级别专家组的激烈讨论且尚未在组内达成一致意见。

  12月18日,欧盟人工智能高级别专家组(AI HLEG)正式发布了人工智能道德准则草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI,以下简称草案), 草案的一大亮点在于其特辟一个章节讨论人工智能所引发的争议性问题,这些问题引起了欧盟人工智能高级别专家组的激烈讨论且尚未在组内达成一致意见。位于列表第一的争议性问题是“未经知情同意的识别”。

  这份草案首先为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。

  围绕这两大要素,草案给出了“可信赖人工智能”的框架。草案强调,其目的不是给出另一套人工智能的价值和原则列表,而在于为人工智能系统提供具体实施和操作层面的指导。

  草案共37页,第一章通过阐述人工智能应该遵守的基本权利、原则和价值观,试图确保人工智能的道德目的。根据第一章所阐述的原则,第二章给出了实现“可信赖人工智能”的准则和详细要求,既涉及道德目的,也涉及技术稳健性,既有技术层面的要求,也有非技术层面的要求。第三章则为“可信赖人工智能”提供了一张具体但非穷尽的评估列表。

  草案指出,其提出的准则并非旨在取代任何形式的政策和规章,同时,这些准则应该被视为活文件,需要定期更新以适应技术发展的需求。

  有迹象表明利用人脸识别对公民进行监控的情况开始在欧洲出现。不久前,英国警方宣布,他们正在伦敦对圣诞节的购物者们进行人脸识别的测试。人工智能中的人脸识别等技术使得公共或私人组织能够有效的识别个人。草案认为,“为了维护欧洲公民的自主权,人工智能的这一使用需要得到适当的控制”。具体而言,区分个体识别与个体跟踪、目标监视与大规模监视对于实现“可信赖人工智能”至关重要。

  另一个专家组热议的话题是“隐蔽的人工智能系统”。发展人工智能的其中一种目标是建立像人一样的系统,但越来越像人的人工智能系统却会给人类带来了困扰。草案认为,一个人必须总是知道他是在与人类还是机器进行交流,这一点也应是AI开发和管理人员的职责。专家组提出,人们“应当牢记,人与机器之间的混淆会产生多种后果,比如依恋、影响或降低作为人的价值。因此,人形机器人和机器人的发展应经过仔细的道德评估。”

  “致命自主武器系统”也是专家组重要关切之一。草案称,目前有数量未知的国家正在研发自主武器系统。这些武器系统中有能够选择性瞄准的导弹,还有具认知能力、可在无人为干预的情况下决定作战对象、时间和地点的学习机器等。专家组认为这会引起不可控的军备竞赛。

  对于以上这些争议话题,草案给出了一个关键性指导准则。首先是AI的开发、部署和使用应以人为中心,须反应公民的福利、无害、人类自主、争议和可解释性等社会价值观和道德原则。其次是评估AI对人类及其共同利益的可能影响,尤其需要注意儿童、残障人士和少数群体等弱势群体的情况。第三是人们需要承认并意识到人工智能在为个人和社会带来实质性好处的同时也可能产生负面影响,人们需要“对严重关切的领域保持警惕”。

  目前,草案处于征集意见阶段,征集时间将于2019年1月18日截止。据悉,该草案将于2019年3月提交到欧盟委员会。

  欧盟人工智能高级别专家组于2018年4月由欧盟委员会任命,组内有52位代表学术界、工业界和民间社会的独立专家。该专家组的主要职责是撰写人工智能道德准则并为欧盟提供政策和投资建议


0
[责任编辑:张秋华]

安全自动化 官方微信    as视界 服务号

不得转载声明: 凡文章来源标明“安防知识网”的文章著作权均为本站所有,禁止转载,除非取得了著作权人的书面同意且注明出处。违者本网保留追究相关法律责任的权利。

专栏
我要投稿
文章排行榜
杂志
  • 安全&自动化2023年9-10月 第261期
    2023年11月第261期
    2022-2023年,全球经济前景的“不确定性”正在对安防与其他行业产生着重大的影响,通货膨胀、供应链挑战、地缘政治冲突、全球劳动力市场结构变化……不稳定的经济环境在很大程度上给全球安防行业的发展带来了极大的阻力。2022年国内安防市场保持着增长,但增速放缓,2023年国内宏观经济呈现复苏态势,市场需求有所回暖,但由于国内政府财政收支减少、部分项目进展缓慢、房地产市场下滑、企业端市场投资信心减弱等因素,给安防企业带来持续挑战。