热点:
    编辑

    英国颁布机器人道德标准:不许令人成瘾

      [  中关村在线 原创  ]   作者:  |  责编:魏景芳
    收藏文章 暂无评论

        北京时间9月19日消息,综合媒体报道,英国标准协会日前正式发布了一套机器人伦理指南,其全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。

    英国颁布机器人道德标准:
    英国颁布机器人道德标准(图片来自雷锋网)

        该《指南》比阿西莫夫三定律更加复杂和成熟。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。这个标准的文件代号为BS8611,发布于9月15日英国牛津郡的“社会机器人和AI”(Social Robotics and AI大会上。西英格兰大学机器人教授 Alan Winfield 表示,这是业界第一个关于机器人伦理设计的公开标准。

        《指南》开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。同时机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。

        《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。

        谢菲尔德大学教授Noel Sharkey认为,这就是机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但是人类有时候并不这么认为。他指出,最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。

        《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解AI系统(尤其是深度学习系统)是如何做出决定的。

        一个人工智能体,并没有用固定的程序来指导它完成任务,它是通过数百万次的学习和尝试,才找出成功的解决方法。这种学习和做出决策的过程,有时候是其人类设计者都无法理解的。

       《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。机器人的偏见是会直接影响技术应用的。 它会对某些群体的学习更深入,而对另一些群体有所忽视,这在以后的应用中,意味着机器人会“看菜下饭,看人说话”。

        Sharkey教授说:“我们也需要一个机器人黑盒子,可以打开来仔细审查。如果一个机器人表现出种族主义的倾向,我们可以把它关掉,从街上拽回来。”

        两周前,路透社有文章指出,有科学家表示性爱机器人会使人成瘾,因为机器人不会拒绝。《指南》 也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。这也是在未来的工作中需要继续补充的。

    news.zol.com.cn true //news.zol.com.cn/605/6051302.html report 2229 北京时间9月19日消息,综合媒体报道,英国标准协会日前正式发布了一套机器人伦理指南,其全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。英国颁布机器人...
    不喜欢(0) 点个赞(0)

    新闻中心文章推荐