O relatório do poder da equipe se concentra no tamanho de envenenamento on -line em esports.

O animado da equipe E soluções de tecnologia Guardião Publicou um relatório sobre ódio on -line e toxicidade em esports, resultando em clareza no nível de violações que definiram os jogadores e equipes -alvo.
Embora o relatório completo não tenha sido publicado on -line, a descoberta da primeira olhada no primeiro método nas organizações européias de esports está resolvendo problemas que afetam os atletas em todo o mundo.
- A equipe Vitality lança a Kare Merch Collection para apoiar a saúde mental.
- Dentro de esports. Problemas de saúde: os jogadores profissionais de jogos estão indo bem?
- Proteção à saúde do jogador: o começo da Suécia, que se concentra nos problemas abandonados dos esports.
O relatório está alinhado com o mundo do mundo da saúde mental e da saúde mental e faz parte do programa Kare’s Kare, lançado em 2023 com o apoio da marca Phillips Monitor, Evnia Kare. Focar na percepção de prevenção e ações com o objetivo da saúde mental é importante no jogo de esportes e jogos.
Para este relatório, a equipe do Bodyguard usa soluções de tecnologia que permitem que marcas e plataformas controlem mensagens e vídeos em contas on -line, os híbridos de IA da empresa francesa e o sistema de auditoria humana detecta e exclui conteúdo tóxico usando as regras para ajustar de acordo com o poder da equipe.
Entre 1 de agosto e 6 de outubro, a conta oficial da equipe Vitality 19 contas foi inspecionada por guarda -costas, que inclui a conta do funcionário e a equipe da equipe. Mais de 57.000 análises de texto e mais de 2.000 mensagens foram bloqueadas para violar os padrões de triagem. Os dados mostram que 3,6% de todos os textos são considerados ligeiramente menores que os esports médios. 4,2% de cerca de 10% do texto total é classificado como positivo.
Conforme relatadoEsses resultados estão alinhados com as tendências industriais e sugerem que o controle e a iniciativa do reconhecimento alvo podem reduzir a toxicidade sem interromper a discussão. No entanto, são necessárias informações adicionais para entender essas situações e os critérios que a equipe usa para inspecionar e bloquear o texto.
Incentivar os resultados, mas requer informações mais claras
Segundo o relatório, mais de 2.000 mensagens de ódio bloqueadas em X e Instagram, que são tão altas quanto 4,6% e 2,5% do pedido.
“Esportes ou esportes, os desafios ainda são os mesmos”. O relatório dizia que os insultos que mostram ódio e abuso on -line podem destruir o “bem -estar e desempenho” dos atletas.
Embora a descoberta enfatize o progresso da definição e comparação, alguns não são claros. O relatório não especifica os critérios por trás da classificação da mensagem “ódio”, ou “tóxico”, mas indica as classes racistas, a fatfóbica e os insultos, além de ataques pessoais com seus jogadores e suas famílias.
Da mesma forma, “mensagens positivas” foram mencionadas 10% de toda a interação. Mas o relatório compartilhado não explicou o que é qualificado como “positivo”
Não está claro se isso inclui verdadeiramente suportado ou apenas uma mensagem não -Enemy. Da mesma forma, o ditado que o futebol recebe “conteúdo indesejado” mais (3,5%) a mais que os esports (1%). Sem a explicação de “coisas indesejadas”.
No entanto, a iniciativa da equipe da equipe é uma etapa importante para a indústria de esports. A cooperação com a Evnia e o uso da tecnologia de filtragem da guarda -costas mostra um compromisso concreto com a saúde mental e um modelo para o método que a organização pode proteger jogadores e comunidades.
O relatório pode não responder a todas as perguntas. Mas isso reforça uma verdade importante: o sucesso nos esports deve significar segurança, inclusive online.
Relate o poder do post, com foco no tamanho do envenenamento on -line em esports, apareceu pela primeira vez no Esports Insider.