意见 科技公司为何要用人来帮助人工智能? 本·迪克森

科技公司为何要用人来帮助人工智能? 本·迪克森

目录:

视频: 羅小白 打呼~~ in 夢時代 (十一月 2024)

视频: 羅小白 打呼~~ in 夢時代 (十一月 2024)
Anonim

“ Andrew Ingram”是一个数字助理,可以扫描您的电子邮件,为您与同事讨论的会议和约会提供日程安排的想法,设置任务,并在很少的帮助下将邀请发送给相关方。 它使用了X.ai的先进人工智能功能, 约克 专门开发AI助手的初创公司。 它解决的问题可以为计划混乱的人们(如我)节省大量时间和挫败感。

但是根据五月份发布的《连线》(Wired)故事,安德鲁·英格拉姆(Andrew Ingram)背后的情报并非完全是人为的。 它由一群40名菲律宾人支持,位于马尼拉郊区一栋高度安全的建筑物中,该建筑物监视AI的行为,并在助手遇到无法处理的情况时接管该行为。

虽然您的电子邮件由真实人员扫描的想法听起来有些令人毛骨悚然,但它已成为许多向其客户提供AI服务的公司的普遍做法。 《华尔街日报》 最近的一篇文章揭露了几家公司,这些公司允许其员工访问和阅读客户的电子邮件以构建新功能,并就从未见过的案例对AI进行培训。

称为“绿野仙踪”技术或伪AI的做法是,静静地使用人类来弥补AI算法的缺点,这揭示了AI行业面临的一些最深层次的挑战。

人工智能还没有解决广泛的问题

近年来,大多数AI创新的背后是深度学习算法和神经网络。 深度神经网络在信息分类方面非常有效。 在许多情况下,例如语音和面部识别或在MRI和CT扫描中识别癌症,它们的性能可能优于人类。

但这并不意味着深度学习和神经网络可以完成人类可以完成的任何任务。

DeepGrammar联合创始人兼首席执行官乔纳森·穆甘(Jonathan Mugan)表示:“深度学习使我们能够解决感知问题。这是一个大问题,因为自60年前问世以来,感知就一直在限制AI。” “解决感知问题最终使AI对诸如语音识别和机器人技术之类的东西有用。”

但是,穆根指出,感知并不是唯一的问题。 涉及常识性推理和理解的深度学习斗争。

他说:“深度学习并不能帮助我们解决这个问题。” “通过将语言视为感知问题,即将单词和句子转换为向量,我们在NLP(自然语言处理)方面取得了一些进展。这使我们能够更好地表示文本以进行分类和机器翻译(数据),但是这对常识性推理无济于事。这就是聊天机器人很大程度上失败的原因。”

所有深度学习应用程序都面临的主要问题之一是收集正确的数据以训练其AI模型。 训练神经网络以执行任务所需的努力和数据取决于问题空间的广度和所需的精确度。

例如,诸如HBO硅谷的Not Hotdog应用程序之类的图像分类应用程序执行的任务非常狭窄和具体:它告诉您智能手机的摄像头是否显示了热狗。 有了足够的热狗图像,应用程序的AI可以高精度地执行其非常重要的功能。 即使偶尔出错,也不会伤害任何人。

但是其他AI应用程序(例如X.ai正在构建的应用程序)正在解决更广泛的问题,这意味着它们需要大量优质示例。 而且,它们对错误的容忍度要低得多。 将黄瓜误认为是热狗与在错误的时间安排一次重要的商务会议之间存在明显的区别。

不幸的是,质量数据并不是所有公司都拥有的商品。

Steve Marsh博士说:“经验法则是,AI尝试解决的问题越普遍,发生的边缘情况或异常行为就越多。这不可避免地意味着您需要大量的培训示例来涵盖所有内容。” Geospock的CTO。 “初创企业通常无法访问大量的培训数据,因此,他们可以可行地建立的模型将非常小巧,脆弱,通常不符合他们的期望。”

仅Facebook和Google这样的大型公司拥有如此丰富的信息,这些公司多年来一直在收集数十亿用户的数据。 较小的公司必须支付大笔费用才能获取或创建培训数据,这会延迟其应用程序的启动。 替代方案是无论如何都要启动,并使用人工教练和实时客户数据开始实时地训练其AI,并希望最终AI不再依赖于人类。

例如,位于加利福尼亚州的爱迪生软件公司(Edison Software),该公司开发了用于管理电子邮件的应用程序,该公司要求其员工阅读其客户的电子邮件以开发“智能回复”功能,因为他们没有足够的数据来训练该算法。首席执行官告诉《华尔街日报》。 创建智能回复是一项艰巨而艰巨的任务。 甚至可以访问数十亿用户电子邮件的Google,也可以针对非常狭窄的情况提供明智的答复。

但是,使用人工训练实时用户数据的AI不仅限于小型公司。

在2015年,Facebook推出了M,这是一个AI聊天机器人,可以理解并响应对话的细微差别并完成许多任务。 Facebook向加利福尼亚的少数用户提供了M,并成立了人工操作人员团队,他们将监视AI的性能,并在无法理解用户请求时进行干预以对其进行纠正。 最初的计划是让操作员帮助教助理应对以前从未见过的极端情况。 随着时间的流逝,M将能够在没有人类帮助的情况下进行操作。

一个无法实现的目标?

目前尚不清楚爱迪生软件,X.ai和其他推出人在环系统以使其AI完全自动化的公司需要多长时间。 还有人怀疑,当前的AI趋势能否达到涉足更广阔领域的地步。

在2018年,Facebook关闭了M,但没有正式部署它。 该公司没有分享细节,但是很明显,创建一个可以进行广泛对话的聊天机器人非常困难。 而要想让M在Facebook的20亿用户中都可用而又不首先使其具有完全能够自动响应各种对话的能力,将需要社交媒体巨头雇用大量人员来填补M的空白。

DeepGrammar的Mugan相信,我们最终将能够创建可以解决常识性推理的AI,其他人则将其归类为通用AI。 但这不会很快发生。 穆根说:“目前,尚无任何方法可以使计算机了解幼儿的知识。” “没有这种基本了解,计算机将无法100%地很好地完成许多任务。”

为了对此进行透视,OpenAI的专家最近开发了Dactyl,这是一种可以处理物体的机器人手。 这是任何人类儿童从小就学会下意识表现的一项任务。 但是Dactyl需要6144个CPU和8个GPU以及大约一百年的经验来开发相同的技能。 尽管这是一个令人着迷的成就,但它也凸显了狭窄的AI与人脑工作方式之间的明显差异。

“要拥有人工智能,我们还有很长的路要走,而且很可能,AGI将是许多不同类型的狭窄或特定于应用程序的AI的组合和协调,” Marsh说。 “我确实认为目前有过度夸大AI功能的趋势,但是我也看到仅采取最初的第一步并实现传统的机器学习模型具有巨大的价值。”

另一个AI冬天即将来临吗?

1984年,美国人工智能协会(后更名为人工智能发展协会)警告企业界,围绕人工智能的炒作和热情最终将导致失望。 不久之后,对AI的投资和兴趣崩溃了,导致了一个被称为“ AI冬季”的时代。

自2010年代初以来,对该领域的兴趣和投资再次增加。 一些专家担心,如果AI应用程序表现不佳且无法达到预期,那么将会迎来另一个AI冬季。 但是我们与之交谈的专家认为,人工智能已经融入我们的生活中,无法追踪其脚步。

Mugan说:“我认为我们没有像以前那样面临AI冬季的危险,因为AI现在正在提供真实价值,而不仅仅是假设价值。” “但是,如果我们继续告诉公众,计算机像人类一样聪明,那肯定会有反弹的危险。我们不会回到不使用深度学习来感知的情况,但是'AI'一词可能会被s污,我们将不得不称之为其他名称。”

可以肯定的是,至少在我们面前是一个幻灭的时代。 我们将学习我们可以信任不同领域中当前的AI融合的程度。

“我希望看到的是,有些公司为能够为以前的手动和昂贵的服务提供AI的速度如此之快而感到惊喜,而其他公司将发现它花费的时间比他们预期的要多得多,从而可以收集并成为财务上可行。” Kindred.ai的联合创始人兼研究主管James Bergstra说。 “如果后者过多,而前者不足,则可能会在投资者中引发另一个AI寒冬。”

  • 人工智能有一个偏见问题,这是我们的错人工智能有一个偏见问题,这是我们的错
  • 为什么教AI玩游戏很重要为什么教AI玩游戏很重要
  • AI提供巨大潜力,但不会隔夜AI提供巨大潜力,但不会隔夜

Geospock的马什(Marsh)预测,虽然资金不会减少,但其动力会有所调整。 由于投资者意识到真正的专业知识很少,而且只有能够访问数据以训练模型的人才会在行业中与众不同,因此市场将发生大规模整合,并且获得资金的初创企业将更少。

“对于许多没有利基市场应用或大量数据的AI初创公司来说,冬天来了,” Marsh总结道。

科技公司为何要用人来帮助人工智能? 本·迪克森