NSFW Detector(Not Safe For Work,简称 NSFW)是开源的检测不适宜内容工具,NSFW Detector能识别图像、PDF、视频文件中的不适宜内容。工具基于Google的vit-base-patch16-224-in21k模型,支持仅CPU推理,无需GPU,可在多数服务器上运行。NSFW Detector基于API提供服务,易于集成到其他应用,支持Docker部署,适合分布式部署。NSFW Detector自动用多CPU加速推理,完全本地运行保护数据安全,支持多种文件类型检测。

NSFW Detector – 开源 AI 不适宜内容检测工具,支持识别图像、PDF、视频文件  第1张
(图片来源网络,侵删)