意见 为什么AI必须透露它是AI

为什么AI必须透露它是AI

目录:

视频: Дилижанс - Частушки (十月 2024)

视频: Дилижанс - Частушки (十月 2024)
Anonim

Google最近对Duplex进行了重新定位,以明确向餐厅主人和沙龙员工透露他们正在与Google Assistant交谈并被记录。

Google在5月份的I / O开发者大会上首次介绍Duplex时,就忽略了这一小而重要的细节。 随之而来的是媒体的强烈反对,评论家们再次释放了对释放人工智能特工的隐忧,这些特工可能以无法区分的方式模仿人类的行为。

通过调整Duplex,Google消除了一些批评。 但是,为什么公司必须透明地说明其AI代理的身份如此重要?

AI助手可以服务于邪恶目的吗?

“人们越来越期望在与企业进行信息交流时,您可以与基于AI的聊天机器人进行交互。但是,当您真正听到人类的讲话时,您通常期望自己是真实的人,”首席执行官Joshua March说Coversocial。

March说,我们正处于人们定期与AI进行有意义的交互的起点,并且该领域的发展使人们担心黑客可能会出于恶意目的利用AI代理。

Cujo AI网络高级副总裁Marcio Avillez说:“在最佳情况下,怀有恶意意图的AI机器人可能会冒犯他人。” 但马西奥补充说,我们可能面临更多可怕的威胁。 例如,人工智能可以学习特定的语言模式,从而使该技术更容易适应操纵人,假冒受害者以及进行网上诱骗(语音网络钓鱼)攻击和类似活动的过程。

许多专家都认为威胁是真实的。 在CIO的专栏中,史蒂文·布赖克曼(Steven Brykman)提出了可利用诸如Duplex之类的技术的不同方式:“至少在有人打电话给人类的情况下,仍然存在一个限制因素,即人们每天只能每小时拨打这么多电话。必须给人类付费,休息一下等等,但是AI聊天机器人实际上可以以无限多种方式向无限数量的人拨打无限数量的电话!”

在这个阶段,我们听到的大部分是猜测。 我们仍然不知道语音助手的出现会威胁到威胁的程度和严重性。 但是,如果提供该技术的公司在与AI代理进行交互时与用户进行明确通信,则可以消除涉及基于语音的助手的许多潜在攻击。

隐私问题

围绕双工等技术使用的另一个问题是隐私的潜在风险。 基于AI的系统需要用户数据来训练和改进其算法,而Duplex也不例外。 如何存储,保护和使用该数据非常重要。

新法规不断涌现,要求公司在收集信息时必须征得用户的明确同意,但是这些法规主要旨在涵盖用户有意发起交互的技术。 对于用户激活的Siri和Alexa等AI助手来说,这很有意义。 但是尚不清楚新规则如何适用于无需触发即可与用户联系的AI助手。

布赖克曼(Brykman)在文章中强调需要建立监管保护措施,例如要求公司宣布存在AI代理的法律,或者法律规定当您询问聊天机器人是否是聊天机器人时,必须说:“是的,我是聊天机器人。” 这些措施将使对话者有机会脱离接触,或者至少决定他们是否要与记录声音的AI系统进行交互。

即使有这样的法律,隐私问题也不会消失。 “我预见到,在该技术的当前化身中,最大的风险是它将为Google提供其尚未拥有的有关我们私人生活的更多数据。到现在为止,他们只了解我们的在线交流;他们现在将真正了解我们在现实世界中的对话。” Xineoh的创始人兼首席执行官Vian Chinner说。

最近涉及大型科技公司的隐私丑闻,其中他们以可疑的方式使用用户数据来谋取自己的利益,给人们提供了更多进入我们生活的窗口的机会,这引起了一种不信任感。 钱纳说:“人们普遍认为,大型硅谷公司将它们视为库存而不是客户,并且对他们所做的几乎所有事情都抱有很大的不信任感,无论最终结果将如何具有开创性和改变人生意义,”

功能故障

尽管Duplex具有自然的声音和语调,并使用诸如“ mmhm”和“ ummm”之类的类似人的声音,但Duplex与其他当代AI技术没有什么不同,并且受到相同的限制。

无论使用语音还是文本作为界面,AI代理都能很好地解决特定问题。 这就是为什么我们称它们为“狭窄的AI”(与“一般的AI”相对,后者是可以像人类的思想一样从事一般问题解决的人工智能)。 虽然狭窄的AI可能非常擅长执行为其编程的任务,但在给出偏离其问题领域的方案时,它可能会严重失败。

Conversocial的三月说:“如果消费者认为自己在和人类说话,他们可能会问一些超出AI正常脚本的问题,然后在机器人不理解时会得到令人沮丧的响应。”

相反,当一个人知道自己正在与经过培训的AI交谈时,该AI已在餐厅预订餐桌,他们将尝试避免使用会混淆AI并导致其行为异常的语言,尤其是当它带来他们是顾客。

Avillez说:“从双工那里接到电话的工作人员也应该得到一个简单的介绍,那就是这不是真实的人。这将有助于工作人员与AI之间的通信更加保守和清晰。”

因此,直到(并且如果)我们开发出可以与人类智力相提并论的AI之前,透明地使用AI符合公司自身的利益。

归根结底,对语音助手(如Duplex)的恐惧是由它们是新的事实引起的,而我们仍然习惯在新的设置和用例中遇到它们。 钱纳说:“至少有些人对不知道与机器人对话的想法感到非常不舒服,因此暂时应该在对话中向对方披露。”

  • AI是(也是)良好的力量AI是(也)是良好的力量
  • 当人工智能模糊现实与虚幻之间的界线当人工智能模糊现实与虚幻之间的界线
  • 人工智能有一个偏见问题,这是我们的错人工智能有一个偏见问题,这是我们的错

但是从长远来看,我们将习惯于与更智能,更有能力执行以前被认为是人工操作员专有领域的任务的AI代理进行交互。

“下一代人不在乎他们在与企业联系时是在与AI或人类对话。他们只想快速,轻松地获得答案,他们已经长大了与Alexa对话。等待坚持与人交谈比与机器人进行交互要令人沮丧得多。” Conversocial的March说道。

为什么AI必须透露它是AI