我昨天在Reddit的Dropbox子版块上看到一个很有意思的帖子。 简单来说,有个用户的账号因为上传了婴儿照片而被封禁了。
该用户的婴儿照片似乎被标记为 CSAM(儿童性虐待材料)。
我们还没看到这些照片,但姑且相信用户,假设它们并非出于儿童性虐待材料的目的而拍摄。我猜测可能是某种自动图像审核工具扫描了这些照片的内容并将其标记出来。
换句话说,一段代码查看了照片并做出了判断,这表面上看起来很荒谬。
我也有我孩子裸照的照片。
其实这并不算什么稀奇事。我有一张女儿刚出生时的照片,她——天哪!——竟然没穿上衣。我还有孩子们在浴缸里玩耍的照片。
鉴于人类无尽的堕落,我确信有人会消费儿童性虐待图片,但它们在法律上真的会被这样归类吗?
我刚刚在谷歌上搜索了“新生儿”,结果发现了很多可爱的女婴照片,她们头发上扎着粉色丝带,半裸着躺在婴儿床上。我相信如果我继续搜索,肯定能找到全裸的照片。
我不是专家,但我理解的是:
- 普通的家庭照片,例如新生儿洗澡时或在医院拍摄的照片,不属于儿童性虐待和成瘾问题 (CSAM)。
- 这些被认为是无性、无辜且典型的父母记录。
- 如果图片有意以任何方式进行性化,那就完全不同了——例如,聚焦生殖器、暗示摆姿势、配以文字等等。
你完全受制于 Dropbox
所有这些大型科技云服务提供商都有一条“我们有权自行决定终止服务”的条款,通常他们只需要停止计费即可。大型科技公司似乎秉持着这样的理念:他们的服务绝对可靠,想要让真人介入并对机器做出的决定提出异议几乎是不可能的。
顺便问一下,Dropbox为什么要扫描你的私人照片?
这个帖子里的发帖人似乎快要放弃了。希望他/她还有其他照片备份,因为如果因为某个连孩子都养不活的人的愚蠢判断而导致这些照片永远丢失,那就太可惜了。