内幕徽标 “内幕”一词。
关闭图示 两条交叉线形成一个“ X”。它指示一种关闭交互或消除通知的方法。

欧盟表示必须对AI负责

文件图片:反对杀伤性机器人运动的激进分子,反对致命自动武器或所谓的``杀手机器人''的非政府组织联盟,于2019年3月21日在德国柏林的勃兰登堡门抗议.REUTERS / Annegret Hilse /文件照片
文件图片:反对杀伤性机器人运动的积极分子在柏林勃兰登堡门抗议,该运动是反对致命性自动武器或所谓的“杀手机器人”的非政府组织联盟
Reuters

傅润芝

布鲁塞尔(路透社)-欧盟委员会周一表示,根据对新技术实行专制制度滥用的新道德准则,欧洲委员会表示,与人工智能合作的公司需要建立问责机制,以防止其被滥用。

该委员会说,人工智能项目应该透明,具有人类监督能力,安全可靠的算法,并遵守隐私和数据保护规则。

欧盟的倡议引发了全球性的辩论,涉及公司何时或是否应当将道德问题放在商业利益之上,以及生产线监管者在承受不冒创新风险的情况下承担得起新项目的艰难程度。

欧盟委员会数字主管安德鲁斯·安西普(Andrus Ansip)在一份声明中说:“人工智能的道德层面并不是奢侈功能或附加功能。只有信任,我们的社会才能充分受益于技术。”

人工智能可以帮助发现欺诈和网络安全威胁,改善医疗保健和财务风险管理并应对气候变化。

但是它也可以用来支持不道德的商业行为和专制政府。

去年,这位欧盟高管邀请了来自学术界,行业机构和公司(包括Google,SAP,桑坦德银行和拜耳公司)的52名专家帮助其起草了原则。

公司和组织可以在6月签署试验阶段,此后,专家将审查结果,委员会将决定下一步。

IBM欧洲董事长马丁·杰特(Martin Jetter)表示,准则“为道德和负责任的AI制定了全球标准。”

(Foo Yun Chee的报道; John Stonestreet的编辑)

阅读有关的原始文章 路透社。版权所有2019。 Follow Reuters on 推特.
关闭图示 两条交叉线形成一个“ X”。它指示一种关闭交互或消除通知的方法。