当前位置:趣投网 > 股票行情 > 正文

女教师电车伦理 有个无人驾驶汽车的伦理问题 你一定没想过

导语:谷歌无人驾驶汽车发生了许多事故。日前,谷歌披露,在7月1日的一次测试中,一辆由谷歌改装的雷克萨斯SUV在加州山景城被追尾,车内三名谷歌员工受轻伤。不过,无一例外,这些事故的原因并不是谷歌无人驾驶汽车本身的问题,至少谷歌一直

谷歌无人驾驶汽车发生了许多事故。日前,谷歌披露,在7月1日的一次测试中,一辆由谷歌改装的雷克萨斯SUV在加州山景城被追尾,车内三名谷歌员工受轻伤。不过,无一例外,这些事故的原因并不是谷歌无人驾驶汽车本身的问题,至少谷歌一直坚持这么说;毕竟,这些事故很多都是谷歌无人驾驶汽车追尾造成的。

那么为什么谷歌的无人驾驶汽车在即将发生追尾事故时不能变道以避免事故发生呢?

事实上,他们可以这样做,但在这样做之前,他们仍然有一些道德和法律问题要解决。

汽车防撞技术一直存在。无论是另一辆汽车、行人还是其他物体,配备该技术的汽车都应该能够采取措施避免可能发生的碰撞。到目前为止,这种技术只用于防止正面碰撞,但理论上,这些技术也可以用于防止后端,但首先需要考虑以下问题:

可能的事故场景

想象一下,你的自动驾驶汽车停在路口,等着前面的行人过马路。这时,你的车发现后面又有一辆卡车冲过来,似乎不可避免会发生追尾。但是,如果你坐在前排,这样的事故只会给你带来一点伤害——至少不会致命。如果你的车有规避程序,你的车该怎么办?如果你的车能立即避让,移到侧车道,那么卡车就会冲进路口,碾压行人。

那么这个自动驾驶程序合理吗?在大多数追尾事故中,这样的闪避或许可以理解,但在这种特殊情况下,让自己受一点伤或者交出无辜行人的性命,显然是不在话下的。

因为,在这个时候,你可以认为你应该对无辜的行人负责,因为是你的回避行为导致了事故的发生。由此产生的道德和法律后果需要由你来承担。

这种情况也可能发生在今天的汽车驾驶中。一旦发生事故,你可能会本能地保护自己,对他人造成伤害。看起来后果和无人驾驶汽车造成的后果是一样的,但是人类并不是完全理性的生物,在紧急情况下无法做出理性的决定——人类会感到恐慌。然而,无人机器是不同的。他们的决定来自深思熟虑的程序和算法,后果不容易原谅。而且,如果程序员故意设置这样的程序,事故甚至可以被定义为“故意杀人”,即使不仔细考虑,也可能被定义为“重大过失”。

无论哪种方式,程序员和开发人员都受到法律的约束。当科技公司用机器代替人来做决定时,他们给自己带来了新的责任和义务。

道德困境

但是不用担心,前端碰撞的时候不存在这个问题吗?追尾有什么区别?

最大的区别是,当发生追尾时,责任通常在后车——通常是因为后车太紧,无法及时响应前车的动作;或者后面的司机分心了。所以,对于无人驾驶汽车,被追尾是没有法律责任的。但如果无人车在行驶过程中发现前方车辆,则有责任规避,避免可能发生的事故。

在无人驾驶引发的伦理问题上,这两种情况也是不同的。这个问题有一个通用的版本,叫做“电车问题”,由哲学家菲利普·福特和朱迪斯·贾维斯·汤姆逊提出。在这种情况下,无人驾驶汽车做出的规避选择是完全合法的:避免了可能的直接伤害,不会给他人带来直接伤害,但这种合法性是不道德的,所以仅仅让无人驾驶汽车的程序符合法律规范是不够的。

那我该怎么办?

遇到这样或那样的麻烦并不意味着我们应该禁止无人驾驶汽车上路,而是我们应该为可能出现的情况做好准备。有时候,无人驾驶汽车可能会面临困境,这给开发者带来了潜在的困难和挑战。

为了降低这种风险,行业应该在设定用户期望和社会影响方面做更多的工作。他们应该让公众了解无人驾驶汽车的能力和局限性,这意味着算法是透明的,而不是让我们无法理解计算机程序控制了我们的生活。

此外,算法的透明度对制造商和服务提供商来说也是一件好事。当事故发生时,他们可以更好地面对法律和道德的责难。

没有技术是完美的,事故还会继续发生。在处理可能出现的问题时,我们应该保持开放和对话,就像斯坦福大学上个月的《自动驾驶汽车编程伦理》一样。因为无人驾驶是造福大众的重要事业,我们只有在发现可能的问题后才能确定可能的解决方案。

免责申明:以上内容属作者个人观点,版权归原作者所有,不代表趣投网立场!登载此文只为提供信息参考,并不用于任何商业目的。如有侵权或内容不符,请联系我们处理,谢谢合作!
当前文章地址:https://www.qthbsb.com/gupiao/1081904.html 感谢你把文章分享给有需要的朋友!
上一篇:黑帽门 黑帽大会来了 盘点发生在BlackHat上的“大事件” 下一篇: 西安三星 走进西安三星半导体公司:用技术打造绿色竞争力