ENGLISH 中文(简体)
设为首页 加入收藏
新闻中心
 
 当前位置: 首页 > 新闻中心 > 行业快讯 > 【行业资讯】深圳3c自动化展 机器人医生能下“病危通知书”吗?
【行业资讯】深圳3c自动化展 机器人医生能下“病危通知书”吗?

(记者 蒋荣耀)最近,美国加州一家医院发生了件怪事:一名机器人医生告诉78岁的病人,他的病没治了。由一名机器人来给人类下“病危通知书”,病人的家属不敢相信也无法接受,于是将他们的愤怒在媒体上公开了。
 
详情是这样的:一位长期受慢性肺病折磨的病人3月初住进了加利福尼亚州弗里蒙特一家医院急诊科。初步诊断后,一名机器人在重症监护室对病人进行了随访。机器人告诉病人,他将无法返回家中接受临终关怀,但是他可以在医院使用吗啡来减轻痛苦。这次诊断意味着,一名机器人给病人下了“病危通知书”。在入院4天后,病人死亡。
 
尽管医院也认为这件事的发生是偶然且“极其不正常”的,但是随着人工智能技术的进步,人与机器人发生矛盾的事情一定会越来越多。从这个案例看,家属质疑的并不是机器人的能力——事实上机器人对病情的判断是准确的。那么问题究竟出在哪里呢?
 
大家还记得电影《我,机器人》开头吗?两辆车掉进水里,机器人需要做一个选择,是先救警探还是孩子。最终机器人救了警探,因为它计算出警探有45%的生还机会;而孩子只有11%的生还机会。在这个场景中,机器人的能力或者判断似乎也并没有错,但是当遇到同样问题时,人类已经在千百年的发展中形成了自己的价值观:应该先救援老弱妇幼。
 
在美国加州医院的案例中,病人家属认为,“这些(病人不行了)话应该是一个活生生的人来告诉我们,而不是冰冷的机器。”家属也没有质疑机器人的诊断能力,而是从价值观上,他们不能接受“冰冷”的机器人给病人判了“死刑”。
 
机器人今天确实已经在广泛领域得到应用,在工业、教育、医学等领域,机器人已经开始替代一些人类的工作。随着机器人不断智能化,当机器人替代我们完成了各项工作,有没有一些活儿是机器人不应该去做的呢?
 
机器人给病人下病危通知,机器人选择先救警察而不是小孩,引发人类担心的根源,首先是因为机器人没有伦理道德。我们的担心,其实就是机器人可能引发一系列伦理风险问题。
 
但本文开头提到的案例,还有担心机器伤害人类的问题,其实是另外一层的冲突:法律冲突。机器人给病人下病危通知,有没有法律效力?在我们的法律社会,一个人犯了错会承担后果,民事案中承担民事责任,刑事案件中承担刑事责任。机器人呢?机器人能够成为承担责任的主体吗?既然机器人不能够成为承担责任的主体,反过来是不是可以理解为,机器人其实无权给病人做出诊断?或者我们需要在机器人不能承担责任的情况下,设计出追究相关人的法律责任的制度?
 
随着AI技术和5G技术的发展,机器人的发展、创新和使用一定会大步向前走。机器人所带来的伦理道德风险问题和法律问题会越来越多,看来我们是该考虑考虑怎么办了。3C自动化展深圳自动化展深圳电子装备展深圳3C自动化展2019深圳3C自动化展

上海贸发展览服务有限公司
深圳贸发会展服务有限公司
本站内容归  上海贸发展览服务有限公司  版权所有

沪ICP备17023807号-8
电话:021-37048765
传真:021-37048779