视频: Артикли во французском языке; Articles (十一月 2024)
上周,使用Google的自动驾驶汽车花了很长时间,才意识到该技术不仅为道路做好了准备,而且在某些情况下比人类驾驶员做出更好的决定-例如,减慢速度并让骑自行车的人屈服。
例如,无人驾驶技术为被称为“台车问题”的百年哲学困境增加了新的变化。 在这种情况下,一个人必须决定是否在Y交叉路口拉杆并驶过绑在铁轨上的一个人,以挽救绑在相邻铁轨上的五个人。
对于无人驾驶汽车,这已被改称为“隧道问题”。 想象一下,当一个孩子无意中穿过入口内的道路时,自动驾驶汽车正在单车道的山区道路上行驶并即将进入隧道,因此汽车不得不做出瞬间决定。 它会继续直打孩子吗? 还是它转弯并撞上了隧道,炸死或杀死了汽车上的乘员?
在加利福尼亚州山景城乘坐Google的自动驾驶汽车的第二天,我参加了在附近桑尼维尔的梅赛德斯·奔驰北美研发中心举行的活动。 在全天讨论的几个主题中,斯坦福大学教授兼大学Revs计划负责人Chris Gerdes作了一个演讲,深入探讨了道德和自动驾驶汽车这一主题。
Gerdes透露,Revs已与斯坦福大学哲学系就涉及自动驾驶的道德问题进行合作,而大学也已开始进行一系列测试,以确定在紧急情况下机器人汽车可能做出什么样的决定。
当哲学带动方向
作为演讲的一部分,格德斯提出了一个理由,说明为什么我们需要哲学家来帮助研究这些问题。 他指出,自动驾驶汽车的道德问题是一个移动的目标,并且“没有限制”,尽管要由工程师来“约束问题”。
为了做到这一点,并使自动驾驶技术的伦理学超越纯粹的学术讨论,Revs通过在道路上放置障碍物来进行斯坦福大学x1测试车辆的实验。 他指出,在车辆的软件程序中放置不同的优先级已导致“非常不同的行为”。
格德斯断言,这种基于伦理学的新兴的自动驾驶软件编程可能成为该技术的“核心要求”,而不仅仅是象牙塔中讨论的内容。 他补充说,道德不是汽车制造商可以从“一级”供应商那里获得的东西,例如燃油泵或仪表板。 最近的大众Dieselgate丑闻肯定表明了这一点。
经验丰富的人类驾驶员已进行了多年编程,可以处理瞬间的决策,但他们仍未总是做出正确的决策。 但是,在看到Google的自动驾驶汽车对日常决策有何反应,并听取了Stanford Revs和学校哲学系正在进行的工作后,我敢打赌这些汽车最终将做出更明智的决策。