推荐演算法失效?研究表明YouTube系统性夸大有关骇人听闻

推荐演算法失效?研究表明YouTube系统性夸大有关骇人听闻
AI 前线导读

一名 Google 的前员工据说因推荐演算法问题建言惹怒上司而被解僱,之后他便致力于 YouTube 推荐机制的透明化工作,不仅开发软体揭秘 YouTube 演算法机制,还建立了一个网站开源他揭秘 YouTube 和 Google演算法的方法。

不管他是怀着何种目的来揭发老东家的问题,他的这一举动都将对推进演算法透明化进程做出好的带头作用。用过 YouTube 的人可能都有这样的体验,当你看完一个影片以后, YouTube 会向你一个接一个地推荐影片,等你回过头来一看,两个小时已经过去了,而且你可能会看到一些价值观奇怪,甚至扭曲的内容。不只是 YouTube ,Facebook、twitter 等社交媒体都会採用类似的推荐演算法,让你看一些有趣可爱的内容还好,但是可怕之处在于它的逻辑倾向于单向,比如当你观看了一条关于车祸的影片,系统会接下来会自动推荐更多的相关内容如灾难、校园枪杀、气候变化等负面的内容。

这样的演算法机制是什幺,却很少有人有全面的了解。

YouTube kid 採用人工推荐取代演算法推荐,AI 演算法不灵了?

2015 年, YouTube 曾推出一款目标受众为儿童的 APP YouTube Kids,一直以来和 YouTube 网站一样,都是使用演算法推荐内容。但演算法推荐并没有达到该公司的预期,为了防止推荐演算法为儿童推荐不适合观看的内容, YouTube 已经决定用人工选取内容的方法代替演算法推荐,并重新思考如何使用推荐演算法中的过滤器。

推荐演算法失效?研究表明YouTube系统性夸大有关骇人听闻

新版 YouTube Kids APP 可能不仅依赖电脑演算法,而是包含由 YouTube 管理团队直接挑选的内容。简而言之,应用程序中的影片必须由人工,而不是电脑审核。

目前尚不清楚这款软体是否会完全作为新应用上架,但似乎最有可能基于现有的讯息,採用人工审核内容的新模式。对此 YouTube 没有发表评论,但消息人士称新版本可能会在未来几週内发布。对于父母来说,这是一次重大胜利。但对于技术人员来说,世界上最大的影片网站开始放弃在自己的产品中使用推荐演算法,难道推荐演算法不灵了吗?

YouTube 、 Google 演算法屡屡被爆扭曲事实,演算法到底哪里出错了?

作为全球最受欢迎的影片网站之一, YouTube 拥有超过十亿使用者每天观看十亿小时以上的资料。 YouTube 向公众公开展示了一些统计数据,例如影片观看量、点讚或讨厌的次数。但是,它同时还隐藏了每个影片更细微的细节,比如网站向其他人推荐它的频率。没有完整的理解,我们就很难知道它的演算法究竟将你向什幺方向上引导,以及推荐的带有偏见的影片背后被扭曲的事实究竟是什幺。

YouTube 已经不止一次因为因为推荐内容不当或扭曲事实而受到公众的谴责。

2018 年 1 月,网上被一则由网红 Logan Paul 上传的在日本自杀森林死者旁边发表不当言论的影片刷爆,截至 24 小时后被下架,这则影片的观看量已达 600 万。Logan Paul 对死者的轻蔑和不尊重引发众怒,同时掀起了一股谴责 YouTube 平台将这种影片放在推荐首页的声讨浪潮。

YouTube 还被质疑利用演算法引导拉斯维加斯枪杀案背后的阴谋论,拉斯维加斯的倖存者们因为 YouTube 宣传短片而愤怒,指责他们拍摄了一个骗局。在 4 月份 YouTube 总部附近发生的女杀手枪击案中,女杀手在枪杀 1 人,并导致 4 人受伤后自杀,原因据说与其在 YouTube 平台上影片的观看量下降有关。

利用推荐, YouTube 平台还间接鼓励如粉红猪小妹吃掉父亲、喝漂白剂等影片背后,以儿童为受众的次文化。

除了 Facebook、Twitter, YouTube 同样被质疑利用演算法影响 2016 年大选,在大选期间成为製造和传播虚假讯息的引擎等等。

演算法原理和产生的问题

据公司内部人员透露,演算法已经成为驱动 YouTube 收入增长最有效的工具,使用神经网路通过大量资料和使用者观看记录对使用者进行分析, YouTube 的工程师将其描述为「目前规模最大、最複杂的商用推荐系统」。那这个推荐系统到底是怎幺工作的呢?

推荐演算法失效?研究表明YouTube系统性夸大有关骇人听闻
上图是 YouTube 推荐系统的体系结构,在向使用者展示少量推荐影片之前,会对影片进行检索和排名。

本质上,过滤气泡的生成方式,也是所有推荐演算法的工作原理。一小段电脑程式码追踪你正在进行的动作,比如你最常看的影片分类、最长观看时间,然后推荐给你同一类型的影片。从某种角度而言, YouTube Kids 提供的节目明确按照孩子们想要看的影片进行推荐。实际上是孩子们自己做出的选择,直到第二次他们失去了兴趣,选择看其他影片。

内容推荐演算法的过程一般包括以下三步:

而孩子们观看影片有一个特点,就是喜欢反复观看同一个影片,直到完全理解。与过滤气泡推荐演算法相结合,其实 YouTube 应用软体只是忠实地对孩子的想法作出反馈,推荐更多相关内容。但这也被别有用心者利用,伤害孩子的身心健康。

虽然 YouTube Kids 影片的创造者花费无数的时间来与推荐演算法博弈,使他们的影片有尽可能多的机会被推送给更多观众,但是由于一旦偏离了特定的分类和标籤,就会面临巨大的风险,因此,推荐演算法和商业策略的相悖会继续阻碍健康、民主、较为平衡的内容生态的维护。

Google 前员工自建网站,推出开源项目破除 YouTube 演算法过滤气泡

普通人对于 YouTube 的做法可能只停留在愤怒和谴责层面,做不了更多的事。但有人却将之付诸行动,并寻求解决的办法,致力于推动演算法透明化。

推荐演算法失效?研究表明YouTube系统性夸大有关骇人听闻
Guillaume Chaslot (

Google 前员工 Guillaume Chaslot 就是后一种人,他自建了 一个网站 ,用来揭示 YouTube 和 Google 演算法的工作原理,让这个被称为全世界目前最複杂的商业推荐系统演算法透明化。

据 Guillaume Chaslot 称,2013 年,他因为建议公司让使用者对内容有更多掌控权而被公司开除。回顾他在 Google 工作的三年中,他曾与 YouTube 工程师团队一起工作了几个月,负责推荐系统。这一经历使他得出结论, YouTube 给予其演算法的优先地位是极具危险性的。

「YouTube 给你营造一种被扭曲的现实。」他说道:「推荐演算法并未进行一种真实、平衡或健康的优化。」

Chaslot 解释道, YouTube 演算法是会不断变化的。它会不断改变其赋予不同信号的权重:例如,使用者的观看模式,或者在有人点击之前观看影片的时长。

在 YouTube 那段时间,他与他合作的工程师负责不断尝试新的公式,通过延长人们观看影片的时间来增加广告收入。他回忆道:「观看时间长度是重中之重。 其他一切都不重要。」

他特别担心演算法对事实的扭曲,因为过于聚焦在向使用者展示他们感兴趣的内容,会导致过滤气泡的出现,这些泡沫只会向人们展示增强其现有世界观的内容。Chaslot 说道,他提出的修复措施中没有一个被他的上级採纳。「YouTube 有很多方法可以改变演算法来抑制假新闻,并改善人们看到的影片的质量和多样性。」他说。「我试图从内部改变 YouTube ,但没有奏效。」

之后, YouTube 和 Google 在演算法上的一些改变在 Chaslot 看来大多是表面化的,并没有从根本上改变演算法中演变出的一些令人不安的偏见。2016 年,他开发了一款程序进行调查。

Chaslot 编写了一款软体,旨在为大家提供全球首个探究 YouTube 推荐引擎的窗口,该应用程式模拟使用者在观看一个影片后引发推荐影片链,并追蹤资料。

在过去的 18 个月中,Chaslot 利用该计划探索法国、英国和德国选举期间 YouTube 上推广内容的偏差,全球变暖和大规模枪击事件,并在 他的网站 上发布了他的调查结果。每项研究发现不同的东西,但研究表明 YouTube 系统性地夸大了有关分裂主义、耸人听闻和阴谋诡计的影片。

从目前该网站披露的项目来看,至少在 2016 年美国大选、拉斯维加斯枪击案、德国大选等事件中, YouTube 演算法都发挥了重要的作用。

通过该网站的检测,有助于我们更好地了解 YouTube 演算法带来的影响,同时带给我们关于机器学习演算法透明化的思考:从使用者的角度来看,演算法透明化是趋势,也是有必要的,这就给破除黑箱问题提出了更迫切的要求。

上一篇: 下一篇: