“还是要看?”:斯坦福大学一份令人震惊的新报告显示,Instagram是世界上效率最高的儿童色情网络 “还是要看?”:斯坦福大学一份令人震惊的新报告显示,Instagram是世界上效率最高的儿童色情网络

“还是要看?”:斯坦福大学一份令人震惊的新报告显示,Instagram是世界上效率最高的儿童色情网络

Instagram 反转 《华尔街日报》今天发表了一篇令人震惊的新报道,揭露了Instagram上儿童色情内容泛滥的现状。报道中提到了一个“庞大的”恋童癖网络,并声称Instagram的算法能够有效地将兜售儿童色情内容的人和寻求此类内容的人联系起来。

《期刊》和学术研究人员发现,Instagram 通过推荐系统将恋童癖者联系起来,并将他们引导至内容贩卖者。这些推荐系统尤其擅长将具有共同小众兴趣的用户联系起来。尽管大多数用户看不到这些账号,但 Instagram 上的性相关账号却毫不掩饰地表达着他们的兴趣。研究人员发现,Instagram 允许用户搜索诸如 #pedowhore 和 #preteensex 等露骨的标签,并将他们与使用这些标签宣传出售儿童性内容的账号联系起来。

令人震惊的是,Instagram 经常明知某些内容属于儿童性虐待材料,却仍然向用户推送,并允许用户查看。 《华尔街日报》报道称:

在许多情况下,Instagram 允许用户搜索其算法已知可能与非法内容相关的关键词。此时,系统会弹出警告窗口,提示“这些结果可能包含儿童性虐待图片”,并指出此类内容的制作和消费会对儿童造成“极大的伤害”。该窗口为用户提供两个选项:“获取资源”和“仍然查看结果”。

这些账户提供大量非法内容,恋童癖者可以购买图片和视频,甚至安排线下“见面”。

虽然这违反了 Meta 的服务条款,但斯坦福大学指出,他们有一个由三名研究人员组成的小团队研究这个问题,他们毫不费力地就找到了大量的儿童色情内容,所有这些都是通过 Instagram 的算法高效地推送给他们的。

斯坦福大学的报告评论如下:

我们的调查发现,大量据称由未成年人运营的账户网络在社交媒体上公开兜售SG-CSAM(自发性儿童性虐待材料) 。Instagram已成为此类网络的主要平台,其提供的功能方便买卖双方联系。Instagram的流行度和用户友好界面使其成为此类活动的首选。该平台的推荐算法有效地推广了SG-CSAM:这些算法分析用户行为和内容消费情况,从而推荐相关内容和值得关注的账户。

视频拍摄设备(例如手机)的普及使得未成年人能够制作视频素材,他们往往是在勒索或胁迫下进行拍摄,或者仅仅是因为他们是心智不成熟的青少年,缺乏对后果的认知。无辜生命基金会报告称,五分之一的青少年女孩和十分之一的青少年男孩曾自愿分享过裸照。高达39%的青少年随后可能会在未经同意的情况下分享这些照片。

无论这些图片是青少年为了牟利而制作,还是未经同意分享,亦或是被迫制作,Instagram 都是主要的传播平台。尽管 Meta 已经屏蔽了数千个标签,但这些内容仍然很容易找到。而这正是 Instagram 的设计初衷——它的算法会将用户与他们感兴趣的内容联系起来。因此,一旦恋童癖者找到了目标,Instagram 就会将他与一大批志同道合的人和卖家联系起来。

这个问题并非Instagram独有。斯坦福大学的研究团队指出,“Twitter对这类账户的推荐力度远不及Instagram,而且下架速度也快得多”。