自动驾驶汽车– Legal Concerns

关于自动驾驶汽车在碰撞中的责任的法律关注是部署该技术的主要障碍。

我们将继续讨论自动驾驶汽车,并在本集中关注法律方面。特别是有关责任的问题是自动驾驶汽车广泛采用的主要障碍。谁应对自动驾驶仪造成的损失负责?是驾驶员,汽车制造商,甚至汽车本身?我聊了 特雷西·赫雷斯科·珀尔教授, 瑞安·卡洛教授艾伦·瓦格纳教授 关于我们的法律体系中需要发生什么,以便能够处理有关自动驾驶汽车的责任。

ISSN 2703-4054

相关链接:

成绩单:

[00:00:00] 特蕾西: 一世’m坚信,美国法律体系目前不准备处理自动驾驶汽车撞车案件。因此,崩溃是由某种硬件软件故障而非驱动程序错误引起的。

[00:00:15] 克里斯多夫:令人震惊的是,测试自动驾驶汽车的领先国家在法律上尚未为这种破坏性技术做好准备。上周,我们已经开始谈论自动驾驶汽车如何改变我们的社会。本周,我们将尝试更好地了解这些新型运输方式可能带来的法律和政治影响。

[00:00:48] 克里斯多夫:那么,美国法律制度到底出了什么问题?

[00:01:02] 特蕾西:我们没有判例法。我们有非常少的成文法。美国现在如此,我’我担心法官会处理这些案件。您做出对行业或消费者来说都是非常不利的裁定,而这两个裁定都将非常非常成问题。我叫Tracy Pearl,是德克萨斯州拉伯克市德克萨斯理工大学法学院的法学教授。

[00:01:27] 瑞安:我不’t think we’非常有能力制定关于机器学习的一般法律,因为我不’认为我们完全理解它’全面影响。好吧,我叫Ryan Calo。我是西雅图华盛顿大学的法学教授。我认为,政府应该在官方上积累更多的专门知识,例如通过退还技术评估办公室。一世’ve甚至主张成立一个独立的机构,以更好地了解网络物理系统。

[00:01:59] 克里斯多夫:技术评估办公室是1972年至1995年美国国会以外的办公室。顾名思义,其目的是评估技术可能为此对社会产生的影响。它提供了对二十世纪后期复杂的科学技术问题的客观分析。尽管有抗议活动,它还是被退款了。

[00:02:22] 特蕾西:我去年年初在美国观看了马克·扎克伯格(Mark Zuckerberg)的听证会时非常感兴趣,我认为您在参议院听证会上看到的动态恰恰是您在法庭上看到的,那就是您有年轻的走私人士向老年人解释,权威人士,老年人真正难以理解的技术。当我从法学院毕业时,我为两名联邦法官担任文书,一名是审判级,另一名是上诉级。而且,我的审判法院法官仍在打印他的电子邮件,并由他的助手分发给他,而且他的智慧和智慧都非常出色。我认为他不是一个人,也许是判断真正复杂的技术问题的合适人选。我想说的是,大约有很多法官,美国年龄较大。那’这种职业道路的本质。所以我认为我们’我们已经看到尚未与自动驾驶汽车进行斗争。但是在技术的其他领域,法官们甚至都在努力地理解争端的本质,更不用说做出有意义的决定了。那里’您知道的关于陪审团池的信息较少。当然他们’是年轻人担任陪审团成员,但我亲眼目睹了非常复杂的专利案,涉及到非常密集的技术问题。您知道,微处理器的组成,我刚刚看到陪审团完全看不清整个审判的整个表达,并真的质疑他们是否是决定陪审团制度是否合适的人。这是应该解决这些问题的正确环境吗?

[00:04:04] 克里斯多夫:将手指指向他人的无能很容易。我本人不是计算机科学家。你有经验和编程吗?

[00:04:14] 特蕾西:我已以尽可能最小的方式对计算机进行了编程。我的意思是,我上学时参加了计算机编程课程,并且做过诸如HTML之类的基础知识。但是,不,我不是任何想象力的计算机科学家。

[00:04:28] 克里斯多夫: 一世f you have little experience in programming. Where do you get your information from that enable you to form your legal opinions?

[00:04:35] 特蕾西:是的,因此长技术的好处是,有很多跨学科的会议。那么,为什么在过去的几年中对参加C法会议的兴趣降低了,是因为我认为’有很多具有相同知识基础的人在彼此之间交谈。和我’我真的非常喜欢参加这样的会议。那里有计算机科学家在工程师的带领下进行对话,因为我认为这是所有法律领域中都存在的问题,那就是您有法官,律师和立法者,而立法者往往像律师一样是律师。和我们’所有人都在互相交谈,而没有像我们所需要的那样与业界交流。然后,您会以一种真正自我关心的方式来游说立法者。因此,我认为那种关于我们必须面对的问题的性质的诚实,深入的对话是缺失的。然后’是我的希望。法律世界真的是孤立的,法律学术世界更是孤立的。因此,我希望看到更多的此类对话正在发生,并且更多的合作发生在该领域的某种交叉学科中。

[00:05:43] 瑞安: 那里 has been a growing number of applications of machine learning to context like translation 和 so on that that feel to me that at least that the application layer not the development of the core techniques behind, eh? Yeah, but at the level of what can we deploy today? Because we have the algorithms in the data 和 the computational power that you know that it is. It is something that’成为主流的一部分,对吗?所以我’例如,我们正在思考无人驾驶汽车的责任制度。无人机导航就是这样

[00:06:22] 克里斯多夫:责任是指在发生事故时必须由谁付款。自动驾驶汽车的制造商还面临责任隐患。当他们的车辆行为异常或表现不佳时,他们可能要承担责任。问题是制造商无法完全预测他们如何’汽车将在现实世界中表现出色。当然,他们不愿为自己的汽车可能造成的损失承担责任。上周,我们已经讨论了几起事故,其中自动驾驶汽车发生故障,甚至导致行人死亡。

[00:07:01] 艾伦:这些确实是具有挑战性的问题。我的意思是,我认为那可能是人工智能中最具挑战性的问题之一。这些事实使得这些系统变得如此复杂和经验丰富,对,机器人’他在世界各地的经历可能会改变他的行为。忠实的Wingman Project(这是美国空军研究的项目)拥有的这些系统’不能实时学习,但可以通过学习来执行任务。将在执行任务时进行汇报,并将其包含在将来的任务和行为依据中。当然,它可以使程序比预期的更遥远。

[00:07:47] 克里斯多夫:真正的问题似乎是复杂的环境。道路上的现实远比目前的自动驾驶汽车要复杂得多。就在本周,Waymo宣布其汽车可以知道手动管理交通的警察的手势。同样,仅在本周才宣布了此事态发展,这意味着到目前为止,它尚不知道该怎么做。尽管这种交通管制形式在大多数发达国家很少见,但在发展中国家却更为普遍。此外,在某些国家/地区,没有交通标志具有任何真正的监管权。只是建议。自动驾驶汽车如何在如此活跃而有机的交通中运转?

[00:08:35] 特蕾西:是的,我想您的意思恰到好处,就是程序员可以做到,他们可以’可能会预测驾驶环境的复杂性,对吗?此外,在某些驾驶情况下,有两个不好的选择而不是两个好的选择。这就是著名的手推车问题。您是否将该卡编程为带着婴儿车碰到妈妈或碰到六人组,而那儿没有一个好的选择。

[00:09:01] 克里斯多夫: 一世f the legal system is unprepared, what could a solution be?

[00:09:05] 特蕾西:所以我的建议是受害者赔偿基金,这是我不知道的’我不想说一种独特的美国现象,但是我认为美国比其他国家利用得更多。因此,受害者补偿基金是法律体系的替代方案,它创建了一笔资金,并提供给特定伤害类型的受害者,并告诉那些受害者,他们将为他们的伤害进行补偿,以换取他们挥舞自己的财产。起诉权。我们 ’在美国,我们用这些补偿了9名11名受害者,深水地平线漏油事件的受害者,遭受黑肺困扰的煤矿工人和弗吉尼亚理工大学枪击事件的受害者。而且我认为这些资金为AV崩溃案例提供了一种非常有趣的替代方法。我是说,所以我’ve建议建立一个基金,以补偿因全自动驾驶汽车受伤的人,并为交换制造商提供一定的保护,使其免于承担责任。而且,我认为,我们还必须处理这样一个事实,即自动驾驶汽车的风险不会为零,对的话,自动驾驶汽车会造成一定程度的可预见的伤害或死亡。重要的是,’t mean that they’是劣质产品或应追究责任的人。但这确实造成了责任暴露方面的实际问题,因此我在本文中给出的类比是儿童疫苗。因此,儿童疫苗很棒。一世’我是儿童疫苗的信徒。他们每年在美国挽救成千上万人的生命。但是不幸的是,儿童疫苗每年也伤害到可预测的,不幸的是数量很少的儿童。那里’我们真的无能为力。我们可以使它们逐渐变得更安全,但是总会有一些儿童对疫苗产生不良反应。在美国,疫苗制造商在十九,八十年代和九十年代几乎不存在,因为每次孩子受伤,即使这是我们可以预测的那种伤害之一,’为了消除疫苗协议,他们的父母会转身并起诉疫苗生产商。尤其是对于小公司而言,生产儿童疫苗的责任风险太高了,他们停止了生产。而且我们在美国几乎用完了疫苗。因此,我们创建了一个受害者补偿基金,以消除该问题。因此,现在美国您需要为每一种儿童疫苗缴税,如果您的孩子受伤了,’再由一笔资金补偿。这对我所有的欧洲,澳大利亚人和显然是新西兰人来说似乎都是显而易见的,对,您’这样做比我们在美国要好得多,但我认为对于自动驾驶汽车,我们’将有相同的确切问题。会有风险状况。人们会受伤,但我认为网络的积极意义将非常重大。

[00:12:00] 克里斯多夫:这听起来像是一个有趣的主意,尽管它似乎更像是围绕特雷西的论点开展的工作,即在没有任何法律指导方针或法律的情况下,我们需要在法律体系之外定居,’仍然是另一个可用选项。沙特阿拉伯赋予了索非亚机器人公民资格,而且欧盟也在争论机器人的盛大人格能否使自动驾驶汽车不成为对自己的行为负责的法律实体。

[00:12:32] 艾伦:我怎么做’t I don’看您如何让机器人具有合法状态。我的意思是,欧盟已经以电子化身份暗示了这一点,对吗?但是我不’不能理解它,因为您不能惩罚机器人的权利,您只能惩罚在机器人背后的个人,即人权。但是让系统本身负责任是没有意义的,因为系统没有惩罚感,没有损失感。

[00:13:02] 特蕾西:我知道,关于赋予机器合法权利的讨论很多。那里’我读过的一本书叫做《机器人也是人》。那只是关于这个问题的。有些人谈论了类似保险的问题。为何不让汽车本身成为可保险的实体,而不是让人们自己购买保险?天哪,我不’在我们如何定义自治以及是否以及如何自治方面,我不知道我比其他人有更好的答案’使机器对自己的行为负责。我认为是一种解决方法’s it’总是以一种或两种机器的形式呈现,它们都具有完整的人权,并且,只要拥有牌照,它们就可以从当地,您知道的商店购买啤酒,或者可以做任何其他事情人类会做的。当然,我认为’您知道,达到了荒谬的程度。我认为我们可以从法律角度考虑将机器视为非法实体,以便可以起诉机器本身或迫使机器本身承担保险。我认为,实际上,这创造了很多有趣的可能性。什么时候我们’再说补偿人的伤害,我不’我们也知道写修辞也许是用来解决其中一些问题的正确范例。我的意思是,我认为当我们谈论权利时,’s so squishy, 和 it’它受制于如此多的假设和如此众多的现行法律,以至于谈论权利,背景实际上会产生超出其解决范围的问题。

[00:14:32] 克里斯多夫:人格本身是一个困难的名词。从法律角度来看,将实体视为个人有什么要求?

[00:14:39] 特蕾西:哦,天哪就像最困难的问题。我的意思是’s the thing. We don’t We don’在法律上也没有很好的答案。如果您看一下我们所拥有的某种堕胎法学,您就会知道,关于人格的最基本问题之一就是从何时开始?’这个问题需要进行激烈的政治辩论,至少在某种法律上尚待解决的问题上,我仍会争论。所以我不’我不知道我们有一个合法的答案,我认为是。它’有趣的是,我们只是唐’甚至在我们结案时都解决了这个问题,直到我们’重新强迫,因为我们有某种超级困难的问题

[00:15:17] 克里斯多夫:情况通常更为复杂,因为人类也可能失去其公民身份,公民权利,甚至可能被宣布无能。在我们生活的某个时刻,我们还必须停止驾驶。甚至菲利普亲王在九十七岁的事故发生后也交出了驾驶执照。

[00:15:39] 特蕾西:您知道国家已经做过的一件事。我知道在某种夏威夷。例如。您每八年更新一次许可证,但是在七十二岁以后,您必须每两套更新一次,这意味着您必须进行视力测试,知道您必须被处于以下位置的人盯着然后可以做出决定的权威。您知道,我认为这在所有州都应该是标准的。我认为您可能已经超过65岁,您应该去进行更多常规测试。而且,推论应该越来越多,那就是您实际上不是一个安全的司机,而是您自己。现在,你知道,我’我会从老年人那里得到大量的支持,我当然不会’不想暗示老人手推车金发女郎应该上路,因为到80年代和90年代有很多人是非常安全的驾驶员。但是我认为,随着美国老年人口的增加,这将是一个非常困难的问题,我们’我们不仅要在法律上要求自己,而且要亲自要求我们’再打交道的都是年迈的父母。

[00:16:37] 克里斯多夫:除了年龄,还有其他因素可能会影响我们的驾驶能力。某些医疗条件使我们无法开车。成为不称职的司机需要做什么?

[00:16:50] 特蕾西:因此实际上每个司法管辖区都有所不同,因此’权限法。在大多数州,’实际上,要让一个成年人宣布自己不称职实际上是非常困难的。我们’我实际上遇到了我自己的家人。我有一个亲属,患有额叶痴呆,并且症状非常明显。并且他的性格发生了变化,我们尚不能宣布他无能,因为他’仍然能够正常运行,并且可以穿得很打扮。他可以洗澡。他的决策能力很弱,但是’根据他所在州的州法律,实际上这还不够’让他宣布自己无能为力。我看到他很多人开车很多,那’确实是一个问题。我们不得不介入并实际上将他的汽车带走了,并不是因为他失去了驾驶能力,而是因为痴呆症导致他与饮酒的关系发生了变化。所以他离开了一个你认识的人’对于喝了很多酒然后决定开车的人根本不喝酒。您知道,能力法确实很棘手,因为如果您太容易让某人宣布自己不称职,那么它可能会成为一种强制形式。对?而且,您可以拥有功能齐全,违背自己意愿的机构化人员。我们经历了大约十九,六十年代和七十年代。美国如果你’我读过,肯·凯西(Ken Kesey)要杀死一只模仿鸟,这是战术上解锁她的结果,哦,我的天哪。什么’这是我的书名’我在找什么?一只飞过杜鹃’巢中有一只鸟。另一方面,如果您很难让人宣布自己没有能力,那么您的处境就像我的家人发现自己的处境一样。当她有一些人时,他们真的应该受到监督,而他们真的应该失去司机’的许可证和任何其他东西,’能够做到。但是,你知道,不要’达到那个水平。司机’s test doesn’成为那时,你知道吗,你可以并行停车吗?您知道如何处理四路停车吗?但是,您能比自动驾驶汽车更好地驾驶吗?而且我认为答案是有百分之一百的时间会否定,因为我知道自动驾驶汽车,你知道Waymo的原型扫描我认为’一分每秒700万个点,所以它们’我们已经远远超出了人类感知的能力。因此,就像我们每年和对汽车的看法一样,我只是看到人类每一次都在测试中失败,无论驾驶员如何出色地表现出多种口音,他们都会因失败而失败。在大多数年龄段,感冒死亡仍然是导致死亡的主要原因。你知道,我们’考虑到我们每年行驶的里程数,这实际上非常好。我们’我们在处理机械方面相当熟练,而且我们大多数人在日常生活中都会遇到棘手的驾驶问题,而实际上根本没有问题。但这不’并不意味着我们应该有机会在路上’s a vehicle that’比我们安全百分之九十四。您知道,到那时,我认为您在法律上和道德上都知道正确的结果是将我们的钥匙交还给机器人。

[00:20:03] 瑞安:我认为,我们现在应该在立法中达到高潮的过程中,因为我不’除非AI导致我们的法律和法律制度发生变化,否则不要认为AI是真正的变革。但是,我认为此时通过有关机器学习的一般规则可能为时过早。

[00:20:23] 克里斯多夫:关于何时应将钥匙移交给自动驾驶汽车以及何时应参与建立操作法律框架的意见似乎有所不同。当自动驾驶汽车比人类驾驶员更安全时,研究人员或多或少乐观。同时,我们需要注意不要过于信任自动驾驶汽车。这是宾夕法尼亚州立大学的艾伦·瓦格纳(Alan Wagner)。

[00:20:51] 艾伦: 那里’原始的,各种各样的不同类型的社交互动。所以我们有些事情’我们试图做的是,让机器人交流他们不应该’在某个时候不要被信任。我们发现此出口极为困难。举一个例子,我们做了一个玉米跟踪实验,将一个人放在玉米中,我们说,你知道,你可以跟随机器人,甚至试图找到自己的出路,对吗?这是一个早期实验。还有机器人。我们只是想看看机器人如何传达它已损坏。因此,起初,我们让机器人随机移动,实验原本需要花费约90秒钟。但是我们发现有些人会跟随机器人十五分钟。所以我们’我看了另一种方式。但是,如果机器人只是像绕圈一样绕障碍物怎么办?但是,我们仍然发现人们会跟随它十五分钟,然后,最后,我们将机器人撞到墙上,跌倒并停留在那儿。然后我们发现有些人会站在机器人旁边等待,相信它会。这个人将要告诉世界一些重要的事情。嗯,所以我们’我们研究了机器人可以尝试进行通信的各种不同方式。但是现在,你不应该’t trust me. It’很难做到,但是回到了这一点。哪些问题使人细微差别。因此,即使是工程师,您 ’重新寻找一种解决方案。而且有’您需要一个解决方案来拥有多种不同的解决方案,这些解决方案取决于个人的行为,而这正是当下的事情。很多第一批电器的人们每天晚上都会从插头上拔出插头,只是为了早晨将它们插回去,因为它们没有’t。他们担心火灾会从这些设备中引发。实际上,首批电子设备引发了很多火灾。我没’完全没有根据。因此,关键是随着我们开发更好的机器人模型,我们会进行大量互动。毫无疑问,我们的信任可能会更符合实际系统的行为。但是挑战变成了永远会有人在天堂’与机器人互动。所以当他们’重新尝试建立这种关系,对系统的理解,他们面临的风险是什么’重新采取这种做法可能没有充分的根据。我们最好的例子’我最近看过看《哈利·波特而你》’关于自动驾驶汽车的飞行现在这是罕见的事件,对吧,但是’s it’秉承这一信念,我们在数据中看到人们相信系统是完美无缺的,它们不会失败。或者他们认为创建它们的程序员,人员或公司在很大程度上都是完美无缺的,因为他们’例如,您曾与Google进行过互动,或者有以这种方式工作过的手机。

[00:23:46] 克里斯多夫: 一世t is not only the humans that need to be careful when trusting machines. But also the machines need to be careful when to trust humans.

[00:23:57] 艾伦: 那里 are many situations were in autonomous system should not potentially trusted a human. So my adviser was Ron Arkin. He’看了很多军事情况,在这些情况下,人们在战争情况下会非常激动。所以你不会’如果想要一个人类士兵,告诉机器人在这种自治系统情况下进行大屠杀,应该说“不”,它应该有权说“不”并且不接受犯下这种暴行的命令。现在我 ’我假设很多。我的意思是那里有很多看法,很多行动,很多行为,但是让我们的西方士兵承担得起吧?他们有权拒绝不道德的命令。所以如果我们’再回到有士兵的现场自主机器人系统时,他们必须拥有相同的权利。但是它提出了这些非常重要的道德问题,我们没有答案。如果像我们这样的人真的非常了解这项技术,’甚至没有开始回答这些问题。谁可以?

[00:25:04] 克里斯多夫:自主武器系统?人机交互互动播客中另一个即将到来的话题。下周,当我们讨论人类,机器人以及介于两者之间的所有事物时,再加入我的行列。

作者: 高领

Christoph Bartneck博士是坎特伯雷大学HIT实验室的副教授兼研究生研究主任。他具有工业设计和人机交互的背景,他的项目和研究已在领先的期刊,报纸和会议上发表。他的兴趣在于人机交互,科学技术研究和视觉设计领域。更具体地说,他专注于拟人化对人机交互的影响。作为次要研究兴趣,他从事文献计量分析,基于代理的社会模拟以及对科学过程和政策的严格审查。在设计领域,Christoph研究了产品设计,镶嵌和摄影的历史。 他曾在多个国际组织工作过,包括汉诺威技术中心(德国),乐高(丹麦),Eagle River Interactive(美国),飞利浦研究(荷兰),ATR(日本)和艾恩德霍芬科技大学(荷兰)。 克里斯多夫是《国际社会机器人科学杂志》,《国际人类计算机研究杂志》和《娱乐计算杂志》的副主编。 克里斯多夫是新西兰语言大脑研究所的成员&行为,ACM SIGCHI,新西兰科学家协会和学术自由Aotearoa。 媒体定期报道他的工作,包括新科学家,《科学美国人》,《大众科学》,《连线》,《纽约时报》,《纽约时报》,BBC,《赫芬顿邮报》,《华盛顿邮报》,《卫报》和《经济学人》。