安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员

Facebook正在推出一套新的工具,以帮助组管理员掌握他们的社区,其中包括一个由AI驱动的功能,Facebook说它可以识别在评论中发生的有争议的或不健康的对话 。这个工具被称为"冲突警报",Facebook说它目前只是在测试阶段,所以正式推出日期还不清楚 。

安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员
文章图片

它类似于现有的"关键词警报"功能,让管理员在评论者使用某些词汇和短语时创建自定义警报,但使用机器学习模型可以来尝试发现更微妙的麻烦类型 。一旦管理员收到警报,他们就可以采取行动,删除评论,将用户从小组中踢出,限制个人的评论频率,或限制对某些帖子的评论频率 。
【安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员】
安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员
文章图片

不过,这项功能究竟如何检测出"有争议或不健康的对话"还不清楚,而且在征求意见时,Facebook没有提供更多细节 。一位发言人仅表示,该公司将使用机器学习模型来查看多种信号,如回复时间和评论量,以确定用户之间的互动是否已经或可能导致负面互动 。

安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员
文章图片

不过,据推测,"冲突警报"使用的人工智能系统与Facebook已经部署,用于标记网站上滥用性言论的系统类似 。这类模型远非百分之百可靠,而且经常被幽默、讽刺和俚语等简单事物所蒙蔽 。

安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员
文章图片

今天为管理员推出的其他新工具包括一个新的管理员主页,它将作为一个仪表板,提供帖子、成员和报告的评论的概述,以及访问新的成员摘要,它汇编了每个小组成员在小组中的活动,例如他们发帖和评论的次数,或者他们何时在小组中被删除帖子或被静音 。

安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员
文章图片

此外,还有一个新的管理员辅助功能,用于自动评论审核 。这将让管理员限制谁可以发表评论,以及通过禁止某些链接来遏制垃圾邮件和不需要的促销活动 。冲突警报功能将是管理助理的一部分 。

安全|Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员
文章图片

    推荐阅读