nsfw( Not Suitable for Work)直接翻译就是 工作的时候不适合看,真文雅
nsfw效果,注意底部的分数
大体流程,输入图片/视频,输出0-1之间的数字,一般情况下,Scores < 0.2 认为是非常安全的,Scores > 0.8 就非常可能是xx图片
roop开源项目里采用的是 0.85
opennsfw2 和 opennsfw 相比,就是模型用了TensorFlow
参考
GitHub - yahoo/open_nsfw: Not Suitable for Work (NSFW) classification using deep neural network Caffe models.
GitHub - bhky/opennsfw2: Keras Core implementation of the Yahoo Open-NSFW model
![[NDK]从Opengles到Vulkan-基础篇(4)-图形管线](https://img-blog.csdnimg.cn/img_convert/c9f7dac62b67e16ad6478d93dde198c8.png)
![[NDK]从Opengles到Vulkan-基础篇(7)-创建纹理容器](https://img-blog.csdnimg.cn/img_convert/3248da3e15ce19ef560c2a4f08265b2d.png)

















