天了噜!
31715人加入此小组
发新帖

无人驾驶汽车撞死人,谁的锅?

读图模式

最近,“电车难题”这个折磨了人们几十年的思想实验,又有了新方向的发展。在未来,我们也许会面对这样一个噩梦般的事实——汽车将代替我们做出生死的抉择。一直以来,许多无人驾驶汽车专家都说,“电车难题”的说法是极左派,即哗众取宠。这样的态度确实令人遗憾。因为随着“无人驾驶汽车”的出现,解答“电车难题”已到了无法回避的地步,而更重要的是,这个答案会严重到重塑美国法律。

为了深刻了解“电车难题”,我们来看一下这个场景:你站在桥上,桥下有一条电车轨道和一条备用轨道。在电车轨道上,绑了50个人。一辆电车正在轨道上向前冲去,即将撞向轨道上绑着的人。万幸的是,你的手边有一个杠杆,操作杠杆,电车就会进入备用轨道。备用轨道上也不是什么都没有,不过只绑了一个人,而不是50个人。你是否会选择操作杠杆?

杠杆操作示意图 图源:NYmag

现在,再思考下这个场景:你又站在了这座桥上,桥下是一条绑着50个人的电车轨道。这一次,只有一条轨道,你发现电车即将到来,距离你只有一公里了。和你一起站在桥上的,是一个胖胖的男人,他正在轨道上方不安全地前倾着。一个可怕的想法进入大脑——你可以轻松的把这个男人推到轨道上。当电车撞到他时就会停下,剩下50个人的性命会得到挽救。你是否愿意推下这个胖胖的男人呢?

推人示意图 图源:AcutalAccount

在这里,答案并没有对与错。许多人都说,虽然很抱歉,但是他们在第一个场景会选择操作杠杆,但在第二个场景真的下不去手。想要确定出一个既可以被大多数人接受,又能在上述情景中同时证明合理的道德准则真的很难。就好像,如果准则是“减少伤亡人数”,那么通过“推人”还是“拉杠杆”来杀死一个人其实没有任何区别。当然,我们都知道“推人”的感觉不一样,更接近于谋杀。但“电车难题”让我们意识到一个糟糕的可能性:我们的道德直觉,既被深思熟虑的准则控制,也受肤浅而武断的因素所影响。

所以不难想象在路面出现相同的情景,比如一辆无人驾驶汽车为了避免自动碰撞到前方的车辆,是否应该转弯撞向有许多顾客的街边咖啡馆。很多专家迅速指出,像“电车难题”一样的场景是很难发生的。无人驾驶汽车的技术只会比人类操作者更安全。他们认为这种说法,只是为了阻碍技术的传播,通过人们歇斯底里的恐惧而从中获利。

汽车撞向咖啡馆 图源:Evening Standard

这样的反应有一定道理,但他们只是狭隘地关注了汽车安全,从而忽略了更广泛的问题:美国法律中遍布着如“电车难题”一样的情境。在其他民事案件中,陪审团的主要作用是判定被告的行为是否合理,比如造成的价值或风险的损失。要进行这些判定,陪审团需要先用一个粗略的数学公式进行过失计算,结算被告行为产生的影响——这就是“电车难题”的精髓。当然啦,你不需要成为一名律师来找出哪哪儿算错了什么的。我们的问题是,既然用数学公式加加减减就可以得出正确的结论,那要陪审团干嘛呢?

事实上,虽然过失计算在大多数时候的结论让人可以接受,但有的时候,它给出的结论却不近人情。面对这样残忍的结论,我们依附于崇高原则的道德观念无法得到满足。于是在这种情况下,法律系统就会依靠陪审团,在数学公式中寻找一些可以迂回的空间,作出满足公众普遍正义感的裁决。

陪审团 图源:The Onion

但如果是无人驾驶汽车,就没什么可迂回的空间了。跟其它电脑一样,没有指示,无人驾驶汽车不会做任何事情。编写指示的程序员肯定不能只考虑大多数情况,他还得考虑极端情况。而且当极端情况真的出现时,无人驾驶汽车只有零点几秒的时间做出决定,没有时间让“外部陪审团”先进行审查。所以,程序员只能站在自己的角度进行指示的编写。有些人认为可以提出一个明确的规则,来规定何时拉杠杆,何时推人,何时撞入咖啡馆。社会必须重视“电车难题”,这并不仅仅是为了解决问题,而是因为这个解决方案所体现的价值观可能会被纳入一些重要的公民领域,比如法律。

那究竟谁可以帮助我们,谨慎地解决“电车难题”呢?不止一位学者说,律师啊!这个提议还是有问题,因为律师职业生涯的大部分时间,都是在避免给困难问题明确的答案。律师界甚至因此产生了一条谚语,来证明这种行为并不是推卸责任,“棘手的案件让法律无能为力。”事实上,“律师能拯救我们”这个观点,有着逆向的因果关系。法律无法影响到“电车难题”,反而是“电车难题”和它的解决方法将会影响法律——比如,陪审团是如何判定某个人的行为是否合理的。

那究竟谁可以帮助我们,谨慎地解决“电车难题”呢?不止一位学者说,律师啊!这个提议还是有问题,因为律师职业生涯的大部分时间,都是在避免给困难问题明确的答案。律师界甚至因此产生了一条谚语,来证明这种行为并不是推卸责任,“棘手的案件让法律无能为力。”事实上,“律师能拯救我们”这个观点,有着逆向的因果关系。法律无法影响到“电车难题”,反而是“电车难题”和它的解决方法将会影响法律——比如,陪审团是如何判定某个人的行为是否合理的。

无人驾驶汽车 图源:BBC

那如果面临的选择是撞向4个横穿马路的男人或者撞向3个横穿马路的母亲呢?又或者是四个横穿马路的母亲?通情达理的人们在面对这些场景可能会有不同的答案,并且会努力辩驳让自己的立场更合理。棘手的案件并不会让法律束手无策,它们只是会让法学家束手无策,这些法学家没有勇气去承认,他们的评理实际上会被私心、情感或者社会压力所驱动。

那如果面临的选择是撞向4个横穿马路的男人或者撞向3个横穿马路的母亲呢?又或者是四个横穿马路的母亲?通情达理的人们在面对这些场景可能会有不同的答案,并且会努力辩驳让自己的立场更合理。棘手的案件并不会让法律束手无策,它们只是会让法学家束手无策,这些法学家没有勇气去承认,他们的评理实际上会被私心、情感或者社会压力所驱动。


来源:#/story/self-driving-cars-will-kill-people-who-decides-who-dies/

收藏 |
发表评论 0

评论 (39) 只看楼主

热门评论

  • 2017-09-30 18:07 Karlson 只看Ta

    首先无人车跟电车难题没有可比性,无人车事故不会让当事人有太深刻的道德歉疚。但是无人车的选择决策上的确是汽车厂商(或者说无人驾驶技术方案商)需要考虑的问题,然而这也并不是什么电车难题。我们的交通法里就已经做出了选择——撞造成损失最小的。而基于人的自我保护意识,也会选择对自己最有利的去撞。例如驾驶过程中制动失灵,在能反应过来的情况下,肯定不会选择撞入人群中,而是尽可能撞建筑物、树或者人少的地方。

    无人车面临这个问题的时候,无论是汽车厂商还是方案商,都应该遵循交通法规定的损失最小的办法。

    至于后续的责任问题,那就更简单了,保险公司负责。汽车厂商或者方案商必须为自己所使用的技术投保,一旦出现由于无人驾驶技术导致的交通责任事故,承保的保险公司负责赔偿。这样的好处是,将保险公司和技术绑在了一起,保险公司会敦促技术完善,也会为技术导致的事故负责。坏处是会提高车辆成本,但是这个成本会由于保险的全心力投入而降低,也会随着技术的进步而降低。这个策略会淘汰那些技术不成熟的方案,最终让优秀的无人驾驶方案得到市场。然后是法律的就位了,法律必须要制定一系列相关的政策和法规,如规定故障率、方案评级、无干预率等。这是市场准入了。

    [3] |

全部评论

  • 1楼
    2017-09-30 16:33 axiang 只看Ta

    不管是有人驾驶还是无人驾驶,“电车难题”都是存在的。

    [1] |
  • 2楼
    2017-09-30 17:38 天顶星人 只看Ta

    那只有跟着感觉走了

    [0] |
  • 3楼
    2017-09-30 18:07 Karlson 只看Ta

    首先无人车跟电车难题没有可比性,无人车事故不会让当事人有太深刻的道德歉疚。但是无人车的选择决策上的确是汽车厂商(或者说无人驾驶技术方案商)需要考虑的问题,然而这也并不是什么电车难题。我们的交通法里就已经做出了选择——撞造成损失最小的。而基于人的自我保护意识,也会选择对自己最有利的去撞。例如驾驶过程中制动失灵,在能反应过来的情况下,肯定不会选择撞入人群中,而是尽可能撞建筑物、树或者人少的地方。

    无人车面临这个问题的时候,无论是汽车厂商还是方案商,都应该遵循交通法规定的损失最小的办法。

    至于后续的责任问题,那就更简单了,保险公司负责。汽车厂商或者方案商必须为自己所使用的技术投保,一旦出现由于无人驾驶技术导致的交通责任事故,承保的保险公司负责赔偿。这样的好处是,将保险公司和技术绑在了一起,保险公司会敦促技术完善,也会为技术导致的事故负责。坏处是会提高车辆成本,但是这个成本会由于保险的全心力投入而降低,也会随着技术的进步而降低。这个策略会淘汰那些技术不成熟的方案,最终让优秀的无人驾驶方案得到市场。然后是法律的就位了,法律必须要制定一系列相关的政策和法规,如规定故障率、方案评级、无干预率等。这是市场准入了。

    [3] |
  • 4楼
    2017-09-30 19:10 可心树懒 只看Ta

    人工智能现在汽车的目标是,超控减轻疲劳,超控简单不复杂。还不能完全无人驾驶。还有一个重要的是在故障时,事故的研究。在故障时也能驾驶,不能有大事故。现在有些车,就是故障时驾驶的。

    [0] |
  • 5楼
    2017-09-30 20:49 笑里飞刀 只看Ta

    无人车如何来判定损失最小?

    譬如说不可避免要撞路人甲或路人乙,如何来判断撞谁损失最小?

    以社会财富或是社会地位?

    如果程序有误,程序员是不是过失杀人?

    [0] |
  • 6楼
    2017-09-30 22:03 克莱因节操瓶 只看Ta

    以前科学人就讨论过无人驾驶 https://www.dzcgjs.com/article/438660/

    反正我觉得现在争相研发无人驾驶并不是为了实用化,而是为了展示技术储备


    PS:想起tesla要求驾驶员在开启无人驾驶模式的时候,要手握方向盘……

    [2] |
  • 7楼
    2017-09-30 13:10 萧迪 只看Ta

    难题一:目测找到有帅哥美女,选择撞向另外一边.然后搭讪.

    难题二:踹下胖子,然后搭讪.

    难题三:都乱穿马路了,选择撞向对自己安全风险最小的选择.然后回家对搭讪成功的老婆老公说:"哇塞.牛逼了!有几个乱窜马路的王八蛋被我撞死了,净化路面环境,自动驾驶真棒!


    [0] |
  • 8楼
    2017-09-30 13:59 吾饿不坐 只看Ta

    遇到情况,保持车道,尽量刹车

    [1] |
  • 9楼
    2017-09-30 14:28 花生油a-13 只看Ta

    一个和五个比较难衡量,因为样本量太小会让人更多从道德方面考虑,如果是一个和五万这就比较好决定了,特别是这五万人里很可能有我熟人的时候……

    [0] |
  • 10楼
    2017-09-30 14:50 kender 只看Ta

    无人车在未来的能力远比人类驾驶员要大,一瞬间可以做出更多的判断,面临的道德困境就比人要多多了。还是坐等未来法律可能会有的各种免责条款吧。

    在制动突然失灵的情况下,是保持路线不动,高概率撞死本车驾驶员;还是斜向路边,确保本车驾驶员存活,一定概率撞死躲闪不及的路人?

    在边上一辆车失控冲向过来的时候,ai这时可以控制车辆迅速倒车躲避。不倒车,本车驾驶员10%的可能被撞死,不会有其他事情发生;倒车了,驾驶员没事儿,但是路边的2个路人90%概率被撞死。ai怎么做?

    [0] |
  • 11楼
    2017-09-30 15:27 天降龙虾 只看Ta
    引用@kender 的话:无人车在未来的能力远比人类驾驶员要大,一瞬间可以做出更多的判断,面临的道德困境就比人要多多了。还是坐等未来法律可能会有的各种免责条款吧。在制动突然失灵的情况下,是保持路线不动,高概率撞死本车驾驶员;还...

    AI:我选择狗带。。

    [0] |
  • 12楼
    2017-09-30 15:32 拼音佳佳2 只看Ta

    其实也很简单啊,城市道路限速嘛.现今的城市道路普遍限速在60到70公里,只要限速40公里,基本死不了几个人.自动驾驶可以更加的有秩序,缺乏秩序基本就是车多拥堵的罪魁祸首,而不是速度太慢了.

    高速路段都是行人全责的,没什么好担心.

    [0] |
  • 13楼
    2017-09-30 16:09 孤独旅人 只看Ta

    无人驾驶的汽车都没有刹车的么?

    以及高速公路是让行人步行的么?

    还有城市里是可以玩极品飞车的么?

    [0] |
  • 14楼
    2017-09-30 18:06 鸦巢 只看Ta

    奇怪了,说的好像后果严重的交通事故发生时驾驶员能做选择一样(尤其大部分严重交通事故的起因不是酒驾、疲劳驾驶就是车辆维护不好,反正就是各种人为因素违反交通规则)

    而人有足够时间做出选择判断回避严重后果的情况,我相信AI的判断会更加果断

    毕竟是极左

    [0] |
  • 15楼
    2017-09-30 18:09 鸦巢 只看Ta
    引用@kender 的话:无人车在未来的能力远比人类驾驶员要大,一瞬间可以做出更多的判断,面临的道德困境就比人要多多了。还是坐等未来法律可能会有的各种免责条款吧。在制动突然失灵的情况下,是保持路线不动,高概率撞死本车驾驶员;还...

    在开始上路之前为什么不做系统自检?

    在可能出现撞人的多人场景为什么还要开到可能撞死人的时速?市区内街道速度限制是设出来好玩的吗?

    前提都没搞对

    [0] |
  • 16楼
    2017-09-30 20:40 zztzzt 只看Ta

    首先遵守交通规则,保持车道,尽量刹车,非撞不可也是在行驶车道上的优先,旁边的人更无辜一些。应该给遵守规则的人更多的生机。

    [0] |
  • 17楼
    2017-09-30 08:44 kender 只看Ta
    引用@鸦巢 的话:在开始上路之前为什么不做系统自检?在可能出现撞人的多人场景为什么还要开到可能撞死人的时速?市区内街道速度限制是设出来好玩的吗?前提都没搞对

    除了封闭式公路,多数路边都有人的吧。省道国道路边都会有行人。

    [0] |
  • 18楼
    2017-09-30 09:50 吾饿不坐 只看Ta
    引用@花生油a-13 的话:一个和五个比较难衡量,因为样本量太小会让人更多从道德方面考虑,如果是一个和五万这就比较好决定了,特别是这五万人里很可能有我熟人的时候……

    那么如果是那一个人是你熟人,那五万人里面全都跟你没关系呢?

    [0] |
  • 19楼
    2017-09-30 10:59 花生油a-13 只看Ta
    引用@吾饿不坐 的话:那么如果是那一个人是你熟人,那五万人里面全都跟你没关系呢?

    你懂得

    [0] |
  • 20楼
    2017-09-30 11:12 鸦巢 只看Ta
    引用@kender 的话:除了封闭式公路,多数路边都有人的吧。省道国道路边都会有行人。

    那么请你想想,到底是什么情况才有可能出现你所举的“前方或侧方车辆失控本车可以采取急退方式躲避但后方有人”的场景,并且在这个场景中司机还有退车撞人的选择

    至少我认为这个场景中100%是多方违章

    非要说,那么无人驾驶的问题恰恰就在于:无法强制全部车辆使用无人系统,也难以统一规划

    如果路上所有车辆都是由无人系统统一规划,所有行人都能自觉按照规划路线前进,那么出乱子的概率会很低——就像生产的自动化和快递的无人分拣一样,系统成熟了就很难出事(当然前提也是系统成熟,当年高铁是个教训,但高铁倒是有责任部门)

    但只要路上混进了“人”,那么怎么乱怎么来——总有酒驾的,也总有飙车的

    [0] |
  • 21楼
    2017-09-30 13:12 吾饿不坐 只看Ta
    引用@花生油a-13 的话:你懂得

    我不懂,你直说

    [0] |
  • 22楼
    2017-09-30 14:07 kender 只看Ta
    引用@鸦巢 的话:那么请你想想,到底是什么情况才有可能出现你所举的“前方或侧方车辆失控本车可以采取急退方式躲避但后方有人”的场景,并且在这个场景中司机还有退车撞人的选择至少我认为这个场景中100%是多方违章非要说,那么...

    是的,你那个设想有前提。这个前提恐怕短期内还实现不了。

    政策是人制定的,而不总是按合理性制定的。把所有人类驾驶爱好者都清除出道路是很难的,长期阶段肯定是人类司机和ai共同在路上。到时候怎么避免人类司机欺负ai反而是个问题。

    [0] |
  • 23楼
    2017-09-30 15:05 呀拉哪一卡 只看Ta

    有一段重复了...

    [0] |
  • 24楼
    2017-09-30 15:22 鸦巢 只看Ta
    引用@kender 的话:是的,你那个设想有前提。这个前提恐怕短期内还实现不了。政策是人制定的,而不总是按合理性制定的。把所有人类驾驶爱好者都清除出道路是很难的,长期阶段肯定是人类司机和ai共同在路上。到时候怎么避免人类司机欺...

    那样一来责任还是出现在人类司机身上,而不是AI判断有问题——这一点上将AI换成老实的人类司机也是一样的

    所以归根到底就不是AI判断的问题,长期内将AI驾驶作为备份驾驶措施、人类司机在复杂路段负责驾驶的思路是一点问题都没有的,到无人驾驶完全普及之后甚至就连复杂路段都不存在。

    与其争无人驾驶安全不安全,还不如先将驾驶员的时常考核标准做好。

    所以这一点上专家说的没错,纠结无人驾驶安全问题的就是一群极左

    [0] |
  • 25楼
    2017-09-30 15:22 fdsn 只看Ta

    感觉要通过无人驾车合法的话,必须同时通过一条配套的法律,即人工驾驶违法,不然总会有奇怪的事情发生。

    [0] |
  • 26楼
    2017-09-30 15:39 Karlson 只看Ta
    引用@克莱因节操瓶 的话:以前科学人就讨论过无人驾驶 https://www.dzcgjs.com/article/438660/反正我觉得现在争相研发无人驾驶并不是为了实用化,而是为了展示技术储备 PS:想起tesla要求驾驶...

    无人驾驶技术,现在分了5个Level,你说的那个是Level 3,也是最不人性化的级别,驾驶人必须全程随时准备接手操控,这种显然不能作为正式无人驾驶技术来使用。Level 1 和 2没有3这么难受,是因为L1和L2其实都是人在驾驶,都是仅有一些简单的辅助,所以人没那么尴尬。而L3开始,是真正的人为辅助,机器为主导。L3要求人随时准备接手,这才叫痛苦。到L4就轻松了,人无需过多干预,遇到故障会自主停车,然后人再接手。真正的自动驾驶是L5,不但故障率非常低,而且可以适用于任何路况(哪怕是临时开挖的一条土路,或者沙漠里无路的情况下,依赖于导航自动寻路)

    [0] |
  • 27楼
    2017-09-30 16:39 花生油a-13 只看Ta
    引用@吾饿不坐 的话:我不懂,你直说

    如果六度分隔理论在你的假设上不适用的话,那肯定是保自己人啦,那5万陌生人死不死跟我有啥关系

    [0] |
  • 28楼
    2017-09-30 16:59 克莱因节操瓶 只看Ta
    引用@Karlson 的话:无人驾驶技术,现在分了5个Level,你说的那个是Level 3,也是最不人性化的级别,驾驶人必须全程随时准备接手操控,这种显然不能作为正式无人驾驶技术来使用。Level 1 和 2没有3这么难受,是...


    5级的自动驾驶我也是知道的,但是我相信短期内L3以上的自动驾驶技术不会实用化

    并不是因为技术不成熟,而是因为导入技术后引发的问题阻止了技术的实用化

    车厂平白无故地多承担了责任、保险平白无故地多给了保险费……

    然后各个厂都在抽自己嘴巴,为啥要实装这个鬼东西,就不能老老实实在实验室里搞吗

    [0] |
  • 29楼
    2017-09-30 17:31 Karlson 只看Ta
    引用@克莱因节操瓶 的话: 5级的自动驾驶我也是知道的,但是我相信短期内L3以上的自动驾驶技术不会实用化并不是因为技术不成熟,而是因为导入技术后引发的问题阻止了技术的实用化车厂平白无故地多承担了责任、保险平白无故地多给了保险费...

    首先说下保险,保险是以小博大的搞法,精算师在详细了解各项数据后,提出保额细则,这个细则是在大数据下保证保险公司能赚钱的关键。所以除非故障率大到恐怖,不然保险公司反而乐见其成。

    其次说下责任,前面也说了,责任不需要车厂承担,也不需要方案商承担,而是保险公司承担。所以车厂在成本可以接受的前提下,更愿意做出尝试。

    最后是法律和政府了,这一方面的加入,才使得整个框架具备可行性。首先法律要规定故障率,你无人驾驶不能老出问题啊,虽然有保险公司负责赔偿,但这三天两头撞人玩儿,政府压力山大,断然不会允许这种方案上市。所以政府在这方面是最先要立法,规定故障率、干预率、召回制度、刑事责任等。有了这个准绳,无人驾驶才真正具备上市的可能。

    至于Level,目前做的最好的也就接近L4的水平,而要真正能投入使用,至少也得接近L5水平才行。当这方面不用太担心,这和汽车实体测试不一样,无人驾驶方案是可以模拟测试的,这方面可以累积非常多的里程,也能获得非常丰富的数据。虽然近几年还不可能出现完全意义上的无人驾驶车,但估计不会超过10年,必然有结果。当然要到全社会都换成无人车,那就是不是个简单的时间问题了。

    [0] |
  • 30楼
    昨天18:56 petpet_guo 只看Ta
    引用@Karlson 的话:首先无人车跟电车难题没有可比性,无人车事故不会让当事人有太深刻的道德歉疚。但是无人车的选择决策上的确是汽车厂商(或者说无人驾驶技术方案商)需要考虑的问题,然而这也并不是什么电车难题。我们的交通法里就已...

    站在局外唯结果论,总是很轻松的。连保险和法律都出来了。还有莫名其妙的自信说肯定不会撞向人群。就问你,如果只有一群人,和另一大群人可以选择呢?

    为什么说你是唯结果论?这篇文章更多目的是由假设结果,来引出预防的措施或制定规则的讨论。如果没有这些前提,就问你,在行车AI随心所欲的道路,你是愿意做乘客还是路人?

    [0] |
  • 31楼
    今天01:34 霜焰 只看Ta

    放心吧,所谓的电车难题对多数人来说,只会一走了之,管你死多少人。

    [0] |
  • 32楼
    今天08:01 Beard55 只看Ta

    AI肯定撞理赔便宜的啊……
    不过话说回来,不高速行驶不就可以刹车了吗?

    来自果壳网移动版
    [0] |
  • 33楼
    今天09:06 Karlson 只看Ta
    引用@petpet_guo 的话:站在局外唯结果论,总是很轻松的。连保险和法律都出来了。还有莫名其妙的自信说肯定不会撞向人群。就问你,如果只有一群人,和另一大群人可以选择呢?为什么说你是唯结果论?这篇文章更多目的是由假设结果,来引出预...

    说的有些道理

    但是不从结果去推,请问应该如何呢?按照我们的想法,那就是不死人,甚至不造成任何损失是最好的。现在就是在说必然要造成损失,甚至必然要死人的情况下,AI应该如何选择,或者说我们应该让AI做出何种选择。既然说的是结果必然会有损失,必然会死人。那么唯结果论有何不妥?因为你都已经设定了结果啊。

    至于必然要撞人,你又让我来选择是当乘客还是当路人,你难道不觉得你提出的这个问题,本身就很搞笑了么?无论是法律还是AI方案商,都不可能以受害者的身份去定义这个方案或者法律。请君入瓮的思路在法律或者AI制定的过程中,必然有所考虑,但是要让制定者切身去当这个“君”,就太过偏激了。制定者只能是上帝视角,不然就设定为不撞我自己得了。制定者也必须是上帝视角,不然无法保证公平。

    况且,无论是人工驾驶,还是AI驾驶,其首要就是遵守交法,既然设定的结果是必然撞人,那么按交法来,有何不妥?

    [0] |
  • 34楼
    今天09:16 mark_w 只看Ta
    引用@petpet_guo 的话:站在局外唯结果论,总是很轻松的。连保险和法律都出来了。还有莫名其妙的自信说肯定不会撞向人群。就问你,如果只有一群人,和另一大群人可以选择呢?为什么说你是唯结果论?这篇文章更多目的是由假设结果,来引出预...

    在交通事故中一个基本事实是:零和博弈(或者此消彼长)的场合是很少的,绝大多数情况下避免事故让双方都获益。

    所以作为行人,我当然希望汽车有可靠的AI

    [0] |
  • 35楼
    2小时前 本杰明-范-1024 只看Ta

    最后一段重复了,

    还有,为什么不让AI选择停车呢?

    [0] |
  • 36楼
    2小时前 kender 只看Ta
    引用@Karlson 的话:说的有些道理但是不从结果去推,请问应该如何呢?按照我们的想法,那就是不死人,甚至不造成任何损失是最好的。现在就是在说必然要造成损失,甚至必然要死人的情况下,AI应该如何选择,或者说我们应该让AI做出何...

    规避法律责任是法律的问题,而电车难题讨论的更多是道德的问题。

    考虑法律只要规避自己的责任就行了,即使明知道也可以救人而见死不救。

    [0] |
  • 37楼
    2小时前 Karlson 只看Ta
    引用@kender 的话:规避法律责任是法律的问题,而电车难题讨论的更多是道德的问题。考虑法律只要规避自己的责任就行了,即使明知道也可以救人而见死不救。

    然而本文说的是无人驾驶车的选择问题,这个问题无论作为厂商还是立法者,都不可避免的要以上帝视角看问题。至于选择,也早有立法决定了,这个时候还讨论道德,不觉得多此一举么?

    或者你要无人车厂商找出一条完全不会面临此等困境的办法?

    其实我第一个帖子里也说了,无人车和电车难题根本就没有可比性,因为电车难题不能以上帝视角处理,那么当事人无论如何选择,都不可避免的有愧疚心理和负罪感。

    [0] |
  • 38楼
    2小时前 kender 只看Ta
    引用@Karlson 的话:然而本文说的是无人驾驶车的选择问题,这个问题无论作为厂商还是立法者,都不可避免的要以上帝视角看问题。至于选择,也早有立法决定了,这个时候还讨论道德,不觉得多此一举么?或者你要无人车厂商找出一条完全不会...

    人类驾驶员的判断者没有上帝视角是真的,法律目前的责任划分也都是对人制定的。

    无人车的反应时间可比人快多了,判断少死人,还是少担责任就是现实的道德问题。

    你可以说复杂的情况基本不会发生,发生了有法律管。但是人们需要知道程序的道德底线在哪里。

    [0] |
  • 39楼
    1小时前 Karlson 只看Ta
    引用@kender 的话:人类驾驶员的判断者没有上帝视角是真的,法律目前的责任划分也都是对人制定的。无人车的反应时间可比人快多了,判断少死人,还是少担责任就是现实的道德问题。你可以说复杂的情况基本不会发生,发生了有法律管。但是...

    1. 你没理解上帝视角的意思,上帝视角就是全局视角,而不是生杀大权。法律考虑的就是全局,至于法律最终的对象当然是人,但不可能是针对某一个人立法,这就是上帝视角了。

    2. 无人车反应时间比人类短,但是这是本文所讨论的范围么?现在说的是必须要撞人,如何选择。而不是无人车可以在千分之一秒的时间内算出一条从两个人之间穿过去的途径,这样的议题。

    3. 程序员就类似于立法者,你觉得交法的立法者应该为死去的那小部分感到内疚么?

    [0] |

小组最新帖子

关于我们 加入果壳 媒体报道 帮助中心 果壳活动 免责声明 联系我们 移动版 移动应用

?2017果壳网    京ICP证100430号    京网文[2015] 0609-239号    新出发京零字东150005号     京公网安备11010502007133号

违法和不良信息举报邮箱:jubao@www.dzcgjs.com    举报电话:13691127034