一网打尽“小黄图”AI鉴黄开源项目资料整理

鉴黄师是一个因为 " 扫黄打非 " 的需要而设立的特殊岗位。

在互联网色情内容暴增的情况下其在净化网络的任务中扮演着非常重要的角色。

然而长期面对大量色情内容的刺激使这类工作者往往要承受心理、生理的双重压力。

机器学习和深度学习发展到了今天,造出的 AI 已经可以在下棋方面狂虐人类。设计个识别不雅图片的算法也不难实现。

名词解释

NSFW

不适合在工作场合出现的内容(英语:Not Safe/Suitable For Work,缩写:NSFW)是一个网络用语,多指裸露、暴力、色情或冒犯等不适宜公众场合的内容。在给出含有上述内容的超链接旁标注 NSFW,用于警告观看者。

下面列举一下Github上AI鉴黄开源项目资料:

nsfw_data_scraper

想要构建一套鉴黄系统,必须有大量的真实图片供计算机进行学习,以便于区分开正常图片和黄色图片。

一程序员在Github上传了图片列表,里面包含了大量图片地址可以供计算机进行学习。

图片分为几类,正常图,性感图,sex图等,在项目主页有具体的部署和使用方法。

注意,真人观看的话可能身体略有不适,不要在公共场合进行学习,并且注意补充营养。

项目地址:https://github.com/alex000kim/nsfw_data_scraper

一网打尽“小黄图”AI鉴黄开源项目资料整理

nsfwjs

一款鉴定不雅内容的 js 库 NSFW JS,你可以使用 NSFW JS 识别不雅内容,所有操作都只在客户端进行,甚至都不需要让文件离开用户的电脑。

演示地址:https://nsfwjs.com/

项目地址:https://github.com/infinitered/nsfwjs

一网打尽“小黄图”AI鉴黄开源项目资料整理

open_nsfw

yahoo开源了用于检测图片是否包含不适宜工作场所(NSFW)内容的深度神经网络项目,GitHub 库中包含了网络的 Caffe 模型的代码。检测具有攻击性或成人内容的图像是研究人员进行了几十年的一个难题。随着计算机视觉技术和深度学习的发展,算法已经成熟,雅虎的这个模型能以更高的精度分辨色情图像。 由于 NSFW 界定其实是很主观的,有的人反感的东西可能其他人并不觉得如何。雅虎的这个深度神经网络只关注NSFW内容的一种类型,即色情图片。

项目地址:https://github.com/yahoo/open_nsfw

一网打尽“小黄图”AI鉴黄开源项目资料整理

正文到此结束
本文目录