谁负责如果人脑控制机器人滴一个婴儿?
当人脑控制机器人进入日常生活,发表的一篇文章科学说,现在是时候采取行动和实施指南,确保安全、有益的使用直接脑机交互。
责任,责任,隐私和安全都是这个新兴领域的关键在考虑伦理维度。
如果一个半自治机器人没有一个可靠的控制或覆盖机制,一个人可能会被认为是过失如果他们用它来接孩子,而不是为其他低风险的活动。作者提出,任何半自治系统应该包括一种否决控制-紧急停止帮助克服的一些固有缺点直接大脑机交互。
中心主任约翰·多诺霍教授Wyss生物神经工程学在日内瓦,瑞士表示:“虽然我们还不完全了解大脑是如何工作的,我们正接近能够可靠地解码大脑信号。我们不应该沾沾自喜的社会。这可能意味着什么一起的生活,我们必须仔细考虑后果semi-intelligent人脑控制机器和我们应该准备机制来确保他们的安全和伦理使用。”
“我们不想夸大风险和建立虚假希望为那些能从脑科学中获益。我们的目标是确保适当的立法不断跟上这个快速发展的领域。”
保护生物数据记录通过脑机接口(bmi指数)是另一个值得关注的领域。安全解决方案应该包括数据加密,信息隐藏和网络安全。指导病人临床研究数据保护已经存在但这些标准在不同的国家,可能不适用严格的纯人工实验室研究。
尼尔斯·Birbaumer教授Wyss中心高级研究员在日内瓦(以前在德国图宾根大学)说:“保护敏感神经的数据完全瘫痪的人谁使用BMI作为他们唯一的通信手段,是特别重要的。成功的校准他们的BMI取决于大脑反应家庭提供的个人问题(例如,“你的女儿的名字是艾米丽?”)。严格的数据保护必须适用于所有的人,这包括保护个人信息问的问题以及神经保护数据,确保设备正确功能。”
的可能性“brainjacking”——大脑植入物的恶意操纵——是一个认真的考虑。尽管BMI系统恢复运动或通信瘫痪的人不最初似乎是一个有吸引力的目标,这可能取决于用户的状态——一个瘫痪的政治家,例如,可能会增加脑部读出恶意攻击的风险提高。
更多信息:j·克劳森el al。”帮助,希望和炒作:neuroprosthetics的伦理维度,“科学(2017)。science.sciencemag.org/cgi/doi…1126 / science.aam7731