目录:
视频: é«èè¿æ°æ´»å-å¶æèµ°ç§ (十一月 2024)
3月12日,《 麻省理工学院技术评论》发表 了一个这样的故事:“这是2023年,无人驾驶汽车终于在我们的城市街道上穿行。其中第一次,一辆自动驾驶汽车撞死了一名行人,庞大的媒体报道。很可能引起高调的诉讼,但应适用哪些法律?”
尽管该事件仍在调查中,但随之而来的骚动表明我们距离将人工智能成功集成到我们的关键任务和决策还有多远。
在很多情况下,问题不在于人工智能,而在于我们对它的期望和理解。 据《 连线》 报道,仅去年一年,就有近40, 000人死于道路交通事故,其中有6, 000人是行人。 但是很少有人(如果有的话)成为Uber事件的头条新闻。
Uber崩溃造成如此动荡的原因之一是,即使新技术仍处于开发阶段,我们对新技术通常也抱有很高的期望。 在纯粹的数学驱动AI算法的幻想下,我们倾向于相信他们的决策,并在他们犯错时感到震惊。
甚至无人驾驶汽车后方的安全驾驶员也会放松警惕。 优步事件的镜头显示驾驶员分心,俯视事故发生前几秒钟。
2016年,在汽车撞上卡车后,以自动驾驶模式运行的Tesla S模型的驾驶员死亡。 一项调查发现,撞车时驾驶员可能正在看哈利波特电影。
对完美的期望很高,而失望却很强大。 事件发生后,批评者很快就使Uber的整个自动驾驶汽车项目受到质疑。 之后,该公司暂时暂停了自动驾驶汽车测试。
AI不是人类
坠机事件发生后的批评当中,有一个驾驶员本来可以避免事故发生的。
一位专家告诉美国有线电视新闻网:“她并没有跳出灌木丛。她已经在多条车道上取得了明显进展,应该在系统权限范围内进行。”
没错 有经验的人类驾驶员很可能会发现她。 但是AI算法不是人类。
自动驾驶汽车中的深度学习算法使用大量示例来“学习”其领域的规则。 随着时间的流逝,他们会对收集到的信息进行分类,并学会处理不同的情况。 但这并不一定意味着他们使用与人类驾驶员相同的决策过程。 这就是为什么它们在某些情况下可能会比人类表现更好,而在对人类而言似乎微不足道的情况下却会失败。
图像分类算法就是一个很好的例子,该算法通过分析数百万张带有标签的照片来学习识别图像。 多年来,图像分类已变得非常高效,并且在许多情况下都优于人类。 但是,这并不意味着算法可以像人类一样理解图像的上下文。
例如,微软和斯坦福大学的专家进行的研究发现,一种深度学习算法是用白猫的图像训练而成的,该算法高度相信白猫的照片代表猫,这是人类孩子很容易避免的错误。 而且,在一个臭名昭著的案例中,Google的图像分类算法错误地将深色皮肤的人归类为大猩猩。
这些被称为“边缘情况”,通常是由于缺少数据而未训练AI算法处理的情况。 Uber事故仍在调查中,但一些AI专家认为这可能是另一个极端情况。
在将其应用于关键情况之前,深度学习需要克服许多挑战。 但是它的失败不应该阻止我们。 我们必须调整我们的看法和期望,接受现实,即每项伟大的技术在其发展过程中都会失败。 AI也不例外。