Nova IA de moderação reduz toxicidade no chat de Call of Duty em 43%

Nova IA de moderação reduz toxicidade no chat de Call of Duty em 43%

Data

Publicado em 13/10/24 às 07:14

A Activision Blizzard anunciou uma redução de 43% na exposição dos jogadores a conversas tóxicas nos chats de voz de Call of Duty desde o início deste ano. Esse resultado positivo é fruto do uso de uma tecnologia de inteligência artificial (IA) chamada ToxMod, que ajuda a moderar as interações durante as partidas. O sucesso dessa iniciativa fez com que a empresa decidisse expandir o uso dessa ferramenta com o lançamento de Call of Duty: Black Ops 6, previsto para 25 de outubro.

O ToxMod foi introduzido com Call of Duty: Modern Warfare III, em novembro de 2023, e funciona analisando as conversas em tempo real. Ele identifica comportamentos inadequados, diferenciando entre provocações normais (conhecidas como “trash talk”) e ofensas graves. Além disso, o sistema tenta captar a idade e o gênero dos jogadores para entender melhor o contexto das interações.

Embora o ToxMod não possa banir jogadores automaticamente, ele sinaliza comportamentos suspeitos para que moderadores humanos revisem. A partir daí, a Activision pode decidir se o jogador será advertido, silenciado ou até banido em casos de reincidência.

Miniatura do Vídeo
Play

Desde que o sistema foi aprimorado em junho de 2024, houve uma queda de 67% no número de reincidentes em Modern Warfare III e Call of Duty: Warzone. Em julho, 80% dos jogadores punidos por má conduta no chat de voz não voltaram a cometer novas infrações.

Atualmente, o ToxMod opera em todas as regiões, exceto na Ásia, e monitora chats em inglês, espanhol e português. Com o lançamento de Black Ops 6, a ferramenta também será capaz de moderar conversas em francês e alemão.

Deixe seu comentário

Deixe um comentário