腾讯“鉴黄师”:系统识别率超95%,还支持“娇喘识别”

2020-01-20 13:37IT之家 - 骑士

IT之家1月20日消息 今天腾讯公众号发文《我是一名“鉴黄师”,但和你想的不一样》,介绍了腾讯安全部门内容风控天御团队一名研发负责人Fay的故事。

不少人可能对“鉴黄师”有种特别的好奇和想象,不少人会认为,Fay的日常工作,就是盯着若干块“花花绿绿”的屏幕,一看一天。长期下来会不会心理扭曲?实际上并非如此。

“传统鉴黄师靠的是肉眼,而我们更依赖技术。”Fay说,虽然两者工作内容有交叉,但本质是有区别的。

2015年,Fay加入腾讯,在网络安全中心做基础平台研发。第二年因为直播乱象横生,一个10人的“鉴黄师”团队成立了,主攻审核系统研发。

为了训练AI,Fay和同事每周会抽检5万条数据,包括图片、音频、文本,进行人工审核,筛出不良内容、标注违规类型。这部分被标注的样本,将送给AI模型学习训练,理解其共同特征,在后续判定中“智能”识别不良内容。

“现在系统的识别率达已经提升95%以上。”Fay认为,相比“鉴黄师”,自己的工作,更像是AI人工智能的训练师。

“色情、血腥、暴恐图片,很容易被识别,而有一些则隐藏很深,试图绕过AI。”Fay举例,有些音频场景,前半段很正常,“中间突然出现女人娇喘声。”有一些甚至是男的。

随后,技术团队开发出了“娇喘识别”系统,对音频场景中的违规内容进行清理。但仍需要不断推动算法模型的调优和升级,比如在嘈杂背景识别声音违规等。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享