消灭网络色情?人工智能并不能做到

2016-10-22 14:52:00
刘大牛
转自文章
231

去年,Twitter 收购了创业公司 Madbits,根据《连线》的报道,这家公司开发了一种在鉴别危险内容(NSFW)上可以达到 99% 识别率的程序。而在 9 月底,雅虎也开源了 其研发的深度学习人工智能色情内容过滤解决方案。但人工智能真的能够消灭色情吗?(额外的福利:一个训练数据集既可以用来训练识别模型,也可以用来训练生成模型。加利福尼亚大学戴维斯分校的学生 Gabriel Goh 就利用雅虎开源的 open_nsfw 训练了一个 色情图像生成模型。警告:此链接的内容可能会引起一些人的不适。)



jqzx (113).png

「我今天不会尝试进一步定义我所理解的这种物质(赤裸的色情),也许我永远都不会成功。我敢说我一看到就知道它是不是,而关于本案的这部电影,则并非如此。」──美国最高法院法官 Potter Stewart



我们不能教会电脑我们自己都不明白的东西,但这无法雅虎对屏蔽色情信息的不断尝试。



在1964年,最高法院推翻了对 Nico Jacobellis 猥亵的定罪,他是一位克利夫兰的剧场经理,被指控传播淫秽作品。有问题的那部电影是 Louis Malle 导演的「The Lovers」,讲述了由 Jeanne Moreau 饰演一名家庭主妇,厌倦了她的丈夫和马球比赛,在一个炎热的夜晚和一个年轻人私奔的故事。而说到「热」,我的意思是其中表现了粗重的呼吸,还有乳头一闪而过──准确地说,没有什么你在有线电视上看不到的。

用几个简单的字,大法官Stewart 做到了几乎不可能的行为──创造了对于色情的定义:「我见即我知(I know it when I see it)」。



美国人对于性的看法自1964年以后出现了很大改变。在 Jacobellis 在最高法院出庭后不久,美国出现了性解放运动,20世纪70年代又出现了色情业爆炸性的发展,而说到最近几年,网络出现了。今天任何能连接网络的人都可以在几秒钟内同时搜出射精和珍珠项链的图片。时间过了很久,我们却面临着相同的问题:我们仍没有对于色情和淫秽的普遍定义。



3333.jpg

Jean Moreau 和 Jean-Marc Bory 在「The Lovers」中的表演,其中没那么露骨的画面(图片:Getty Images)



在互联网上人们可以不受限制地访问猥亵,肮脏和疑似猥亵的内容,这种情况催生了各种形式的内容审查,技术上,人们开始使用算法和先进人工智能程序来鉴别和清理色情内容。去年,Twitter 收购了 Madbits,一家小型初创企业,根据《连线》的报道,这家公司开发了一种在鉴别危险内容(NSFW)上可以达到99%识别率的程序。而在9月底,雅虎开源了其研发的深度学习人工智能色情内容过滤解决方案,其他公司也正在做着同样的事。



互联网巨头们近年来一直在投入巨资试图解决色情内容的问题。但他们面临的问题是,审查是一种封闭,淫秽本质上是主观的。如果我们无法对什么是色情达成一致,我们就不能有效地训练我们的计算机「我见即我知」。无论技术的复杂性或界定方式如何,色情识别程序仍需要依靠人类的判断来告诉它们什么是 NSFW。



「有时一个裸体儿童不止是裸体。」



在互联网早期时代,美国的图书馆和学校基于搜索关键字过滤色情内容,以使内容满足儿童互联网保护法案(Child Internet Protection Act)的规定。顾名思义,这项条例旨在保护儿童远离互联网上的阴暗内容,特别是「那些在未成年人可以登录的电脑上出现的(a)淫秽;(b)儿童色情;(c)对儿童有害的图片。」



但事与愿违。



在2006年纽约大学 Brennan 法律中心的一项报告中,研究者们对早期关键字过滤和其人工智能的后继者有如此的定义:「强势,经常不合理,审查工具」。



「过滤器的复杂和无限增加的关键词让人类的表达方式越来越受限制,」报告中说。「它们孤立了单词和短语,让人类的表达价值减退。一个不可避免的结果将是这种方式会让医疗,司法,艺术和很多其他行业的研究遇到限制和阻碍。」



这份报告发现目前流行的过滤器令人难以理解地屏蔽了 Boing Boing ,GLAAD,罗伯特·梅普尔索普和第三十届超级碗,同时经常反映了其创作者的政治和社会偏见。雅虎和谷歌已开始使用基于复杂图像识别的人工智能过滤器代替了关键词搜索,然而这些算法仍然依赖人类去教育它们辨别什么是可以接受的信息。而 Facebook 最近也发现,图片过滤比关键词好不到哪儿去。



Synced (5).jpeg

(图片:美联社)



社交网络上最近一次大事件正和此事有关。在9月初,Facebook 经历了一次大规模的抗议事件。一张普利策奖获奖照片遭到了 Facebook 新算法的屏蔽,这是一张摄于1972年越战中的照片,其中一名裸体的9岁女孩在凝固汽油弹空袭中哭喊逃亡。Facebook 最初以违反社区规则为由屏蔽了这张照片:「虽然我们认识到这张照片是标志性的,但很难创造一条规则在裸体儿童照片中分辨是否具有色情元素。」



但就像《纽约时报》所说的,Facebook 的屏蔽出现后,成千上万的用户在他们的时间线上贴出这张照片以示抗议。



「赤裸的儿童形象通常违反我们的社区标准,在一些国家这甚至属于儿童色情内容。但在这一事件中,我们认识到这张照片中存在的历史和广泛的重要性,它记录了一个重要的时刻。」



我们不知道现在 Facebook 的系统中如何标记这张照片,但无论是人类还是人工智能,或者两者一起的审查体系,有一个底线不能被打破:「有时一个裸体儿童不止是裸体。」



「有时挂着鞭子的男人并不只是挂着鞭子。」



这不是 Facebook 第一次错误地过滤大多数人认为「干净」的内容。社交网络对于系统删除一些女性暴露乳房的照片也怨气颇多,这些照片其实只是一些护理和胸透的照片。最近 Facebook 上的另一课则有关艺术,他们错误地将一名黑人把自己涂成白色身体的裸体视频删除,随后被迫恢复。这名艺术家试图在黑人权利运动中唤起人们对警察暴行的注意。



现实世界也充斥着艺术还是色情的争论。在1990年,辛辛那提当代艺术中心举行了罗伯特·马普尔索普(Robert Mapplethorpe)的摄影展览,中心及其主管被指控传播淫秽作品,随后控诉又被取消。



那是美国第一次有一家博物馆成为这种官司的被告方,案子中的问题照片──描述了同性恋间的S&M──被共和党拿来成为了全国讨论的话题。控方认为,这次由国家艺术基金会资助的展览存在色情内容,而辩护方将其定义为艺术。这件案子证明了有时挂着鞭子的男人并不只是挂着鞭子。同时也证明了我们接触艺术的权利,无论多有争议,并不是总能获得保证。



我们的个人偏见仍将继续损害我们获得信息和言论自由的权利,尽管网络过滤系统已有很大发展。我们也许永远无法对 NSFW 的意义达成共识,然而没有普遍的定义,我们的机器只会遵循我们自己的判断进行工作。没有人可以定义我见为何物,也没有代码可以改变这种现状。

入门 产业 应用 计算机视觉 色情识别
发表评论
评论通过审核后显示。
文章分类
联系我们
联系人: 透明七彩巨人
Email: weok168@gmail.com