特征 10尴尬算法失败

10尴尬算法失败

目录:

视频: 当男生喜欢女生的时候 (十一月 2024)

视频: 当男生喜欢女生的时候 (十一月 2024)
Anonim

技术不仅适用于极客,还适用于每个人,而且还有很多人。 只有少数几家公司控制着大多数的硬件和软件,从Apple和Amazon到Facebook,Microsoft和Google,它们只能做很多事情来控制您的钱包和眼球。 一家贫穷的巨型公司该怎么办? 依靠算法做出一些重要的决定。

牛津生活词典将算法定义为“计算或其他问题解决操作(尤其是计算机)要遵循的过程或规则集”。 一个完美的例子是Facebook News Feed。 没有人知道您的某些帖子是否显示在某些人的新闻源中是如何工作的,但Facebook确实如此。 或亚马逊向您展示相关书籍怎么样? 在Google上进行相关搜索? 所有这些都是严密保护的秘密,它们为公司做了很多工作,并且会对您的生活产生重大影响。

但是算法并不完美。 他们失败了,有些失败了。 加上社交媒体的眩光,一小段毛刺就能迅速变成PR噩梦。 它很少是恶意的; 这些往往被 《纽约时报》 称为“弗兰肯斯坦时刻”,在那里,有人创造的生物变成了怪物。 但这确实发生了,下面我们汇总了一些最令人震惊的例子。 在下面的评论中让我们知道您的收藏夹。

    1 Instagram的可疑广告

    据 《卫报》 报道,Facebook喜欢通过自己用户的帖子为其Instagram服务投放广告。 但是该算法选择了错误的“照片”,以推向自己本人( 《卫报》 的记者)的奥利维亚·索伦的朋友们,选择了她拍摄的一张威胁电子邮件的旧截图。

    2个针对种族主义的广告

    上周,ProPublica报道称,Facebook允许广告商以攻击性人群为目标,例如“仇恨犹太人”。 该网站为上述广告支付了30美元,该广告针对的是能够对“犹太人为什么毁了世界”和“希特勒没做错”之类的事情做出积极响应的受众。 在15分钟内获得批准。

    Slate发现了类似的令人反感的类别,这成为Facebook不得不道歉的一长串项目,而且还承诺在某些人为的监督下解决。 您知道吗,例如当它为俄罗斯投放价值100, 000美元的选举广告时。

    首席运营官谢丽尔·桑德伯格(Sheryl Sandberg)在Facebook帖子中说,她“对这些话感到厌恶和失望”,并宣布对其广告工具进行更改。

    BuzzFeed检查了一下Google将如何处理类似的事情,发现很容易设置针对性广告,让种族主义者和偏执狂看到。 每日野兽在Twitter上进行了检查,并使用“纳粹”,“湿背”和N词之类的字词找到了数百万个广告。

    3 Facebook年度回顾困境

    如果您使用的是Facebook,那么毫无疑问,您会看到其年末算法生成的视频,以及最近12个月的精彩视频。 或某些低光灯。 2014年,一位父亲看到了已故女儿的照片,而另一位父亲则看到了自己家中烈火的快照。 其他例子包括人们看到他们的晚期宠物,充满父母骨灰的骨灰盒和死者的朋友。 Facebook承诺在2015年之前过滤掉悲伤的回忆。

  • 4特斯拉自动驾驶崩溃

    大多数算法上的困难远非致命,但自动驾驶汽车世界将带来全新的危险水平。 这已经至少发生过一次。 佛罗里达高速公路上的特斯拉车主使用了半自动模式(自动驾驶仪),撞到一辆拖挂车上,将他切断了车门。 特斯拉迅速发布了升级,但这真的是自动驾驶模式的错吗? 美国国家公路交通安全管理局(National Highway Traffic Safety Administration)表示可能并非如此,因为该系统要求驾驶员对问题保持警惕,如上面的视频所示。 现在,如果驾驶员没有首先响应视觉提示,特斯拉甚至可以阻止自动驾驶仪的使用。

  • 5 Tay the Racist Microsoft AI

    几年前,聊天机器人本应席卷全球,取代客户服务代表,并使在线世界成为获取信息的聊天场所。 微软在2016年3月做出回应,推出了一个名为Tay的AI,人们(特别是18至24岁的年轻人)可以在Twitter上进行交互。 反过来,泰语将为大众发布推文。 但是在不到24小时的时间里,泰从恶臭的群众中吸取了教训,成为了成熟的种族主义者。 微软立即将Tay撤下。 她在2016年12月以名为Zo的新AI身份返回,并“进行了严格的制衡,以保护自己免受剥削。”

    6恭喜您(不存在)的孩子!

    全面披露:在我撰写本文时,我的妻子实际上已经怀孕。 我们俩都从亚马逊收到了这封电子邮件,称有人从我们的婴儿注册表中为我们购买了东西。 我们尚未将其公开,但是并没有那么令人震惊。 同时,数百万其他亚马逊客户也得到了相同的提示,包括一些没有注册记录的…或即将生下的婴儿。 它可能是网络钓鱼计划的一部分,但事实并非如此。 亚马逊发现了该错误,并发送了一封后续道歉电子邮件。 那时,许多人抱怨这是不合适的或不敏感的。 这比故障电子邮件服务器要少一些算法,但是会向您展示它总是很容易冒犯。

    7亚马逊'推荐'炸弹材料

    在英国的第4频道新闻从 Fox News 到 The New York Times 报道后,所有人都跳了起来。 据推测,亚马逊的“经常一起购买”功能可以向人们展示制造炸弹所需的东西,如果他们使用的是该网站不愿透露的一种成分(硝酸钾)的话。

    亚马逊算法的实际作用是向买家展示少量制造黑火药的成分,这在英国完全合法,并且被用于各种事物(例如烟火),这一点在一个经过深思熟虑的令人难以置信的过程中迅速指出:闲话中的博客文章。 取而代之的是,所有报告都是关于亚马逊如何看待它的,因为这就是他们不得不说自己在一个害怕恐怖主义和逻辑的世界中所做的事情。

    8谷歌地图获得种族主义

    2015年,当Google Maps搜索“ n ***** king”和“ n *** a house”时,谷歌不得不道歉,导致白宫被当时巴拉克·奥巴马(Barack Obama)占领。 这是“ Googlebomb”的结果,其中一遍又一遍使用的术语被搜索引擎选中并标记为“ popular”,因此结果进入搜索的顶部。 这就是“ Santorum”一词得到其新定义的方式。

    9 Google将人类标记为大猩猩

    Google相册是一项了不起的应用程序/服务,可以存储您的所有图片以及更多其他内容。 其中之一是在照片中自动标记人物和人物。 它使用面部识别技术将人们缩小到正确的人。 我什至有一个所有狗的文件夹,但没有给它们加标签。 尽管效果良好,但当Google在2015年不得不向计算机程序员JackyAlciné道歉时,他和一个朋友(都是黑人)被该服务标识为大猩猩,这真是令人震惊。 谷歌对PCMag表示:“我们感到震惊,对此感到非常抱歉。”

    10机器人安全击中儿童,自杀

    Knightscope制造了称为K5的自动安全机器人,用于在学校,商场和社区巡逻。 车轮上的5英尺高的达莱克式圆锥体(值得称赞的是,仍处于beta测试中)倾向于使这个消息不是阻止犯罪,而是要引起小故障。

    例如,2016年7月,帕洛阿尔托斯坦福购物中心的K5撞到了一个16个月大的孩子的脚下,而Knightscope不得不正式道歉。 在同一地点-可能是同一机器人-在醉酒的停车场发生了争吵,但这至少不是K5的错。 陪审团仍在华盛顿特区乔治敦海滨,办公室/购物大楼的K5单元中……据称有人在工作仅一周后就从楼梯上摔下了一个喷泉。 对于天网的军队来说并不好。

10尴尬算法失败