视频: Диакритические знаки во французском. Accent aigu, accent grave, accent circonflexe. Видеоурок 1. (十一月 2024)
微软上周举行了一次神话般的Build Conference,在大会上促进了Cortana的未来,将其作为牢牢锁在地下室的人们的伴侣。
我应该发现这些头很烦人,您应该期望我有沸腾的声音。 但不是。 我发现这些语音识别和交互式模块非常有用(尽管没有它们我也可以轻松完成;我可以不问就可以查询天气)。 通常,我对它们的长期可靠性表示怀疑。
例如,我一直在Android设备上使用“ OK Google”模块。 我用它来放入搜索词,查找地址并编写短信。 这些不是交互式的杂务。 交互是模块自己执行的操作,但通常不是对话形式。 我确实与客户服务机器人进行了交谈。 “你是说是?还是不?” “说是或按1。”
许多人不停地谈论亚马逊回声,并不断谈论它。 当被问到这个问题时,对话就这样进行。
倡导者 :我喜欢这个回声。
我 :这有什么好处?
倡导者 :您不知道,但这太棒了。
我 :喜欢什么?
倡导者 :我可以问天气。
我 :你不能只是看着窗外?
拥护者 :它播放我播放列表中的歌曲。
我 :那些肮脏的扬声器听起来不太好。
拥护者 :听起来比您想象的要好。 太奇妙了。 它还从Wikipedia中读取。 它可以设置一个计时器。
我可以继续,但这仍然只是一个小发明。 如果听写书做得很好,我会印象深刻。 但事实并非如此。
这些设备给我带来的问题之一就是环境问题。 例如,Siri,Google和Cortana无法应对严重的街道噪音。 在曼哈顿散步时使用这些东西是一个笑话。
但是,让我进入最令我关注的部分:人们侵入事物。 这并没有发生任何极端情况,但是当有创意的黑客看到其中的幽默时会发生这种情况。
许多人怀疑Microsoft在Twitter上发布的疯狂的“ Tay”聊天机器人已被黑客入侵,并最终产生了各种卑鄙的推文。 同样,我可以想象Amazon Echo被编程为从 2001年起 演唱《雏菊》 :《太空漫游》 ,或者经典的《我们中间有一种真菌》。
如果这些语音机器人中的任何一个在被问到问题时返回一串粗俗的说法,那将是很有趣的。
微软否认Tay遭到恶意软件攻击。 但是没有其他解释。 如果是内部黑客入侵,那么Cortana可能是下一个目标。
这些公司都不愿考虑这种事情,因为宣传会很糟糕,尤其是当它涉及到在公共汽车站像疯子一样对小孩子们进行责骂时。
黑客还可能故意提供误导性的问题答案或错误的驾驶说明。 你可以想象。 可能性是无止境的,我可以保证它们会比迟早发生。