视频: ä¸è¦å²ç¬æåçæ§ (十一月 2024)
询问您的手机,Echo或计算机。 或致电您的银行,然后转到自动菜单。 我会等。
无论您问什么,无论语气或话题如何,综合版本的女人都可能回答您,有礼貌和谦恭,愉快。
这是因为Siri,Alexa,Cortana和他们的前辈们多年来一直在从事这项工作,准备回答严肃的询问并转移荒谬的询问。 尽管他们没有身体,但它们体现了我们在描绘私人助理时所想到的:有能力,高效且可靠的女人。 她通过提醒和指示使您准时参加会议,为通勤提供阅读材料,并在途中提供相关信息,例如天气和路况。 但是,她不负责。当由人类执行时,这些任务会产生社会和心理后果。 因此,人们可能会认为,使用无情绪的AI作为个人助手会消除对过时的性别刻板印象的担忧。 但是,公司已经用女性的声音甚至在某些情况下用名字反复推出了这些产品。 但是,当我们只能看到一个女人,甚至是一个虚假的女人时,我们就会实施有害的文化。
不过,在这种情况下,消费者仍希望有一位友好,乐于助人的女性,这正是公司给予他们的。
亚马逊发言人告诉PCMag:“在发布之前,我们已经通过内部测试计划和客户测试了许多声音,并且这种声音测试得最好。”
微软发言人表示,Cortana从技术上讲可以是无性别的,但该公司在选择声音时确实将自己投入了性别研究,并权衡了男女声音的好处。 雷德蒙德说:“但是,对于我们的目标-建立一个有用的,支持的,值得信赖的助手-女性的声音是更好的选择。”
苹果公司的Siri和Google助手目前提供切换为男性声音的选项; 自2013年以来为Siri,自10月以来为Google。 但是Alexa和Cortana没有男性。
考虑到IBM的Watson是一种更高级别的AI,在与医生一起治疗癌症并轻松赢得 Jeopardy奖时 ,它会发出男性的声音。 在选择Watson代表 Jeopardy 的声音时,IBM选择了一个具有自我保证的词语,并使用了简短的定语。 根据研究,这两种都是男性的典型讲话,而且人们更喜欢听到领导者发出的阳刚之声,所以沃森得到了男性的声音。
同时,根据心理学家詹姆斯·W·彭纳贝克(James W. Pennebaker)的说法,女性比男性使用更多的代词和暂定单词。 代词的使用,特别是单词“ I”的使用表明社会地位较低。 AI助手非常倾向于使用“ I”,特别是在承担错误责任时。 向Siri问一个她无法处理的问题,她说:“我不确定我是否理解。”
至关重要的是,我们要在私人助理中挑战陈规定型的性别角色。 我们与AI的互动可以教和训练它,但我们也受这些经验的影响。 这就是为什么当Alexa不需要“请”或“谢谢”来执行任务时,父母会担心无意间抚养粗鲁的孩子的原因。
随着我们与技术的关系进入亲密关系的新阶段,令人担忧的是,当某些人的主要性经验出现在性爱的默认机器人身上时,会发生什么。 骚扰Siri观看YouTube视频可能会让某些人感到有趣,但听到这种语言与女性从街头骚扰者那里听到的语言有多么相似却令人不安。 两个人都接受同样的社会期望。
人类的目标是在社交互动中实现语言风格的匹配,这意味着他们试图匹配与他们说话的人类以及现在的AI的语言模式。 但是,随着AI进入我们的物理领域,以降级的方式对待AI会产生严重的个人和社会后果。 人工智能背后的公司正在从偏见中获利,这不是通往乌托邦,技术或其他方面的方式。