Yoel RothAnteriormente, o início da confiança e segurança do Twitter, agora na partida, o futuro da rede social aberta e a capacidade de combater a capacidade de combater spam e outros conteúdos ilegais, como o futuro da rede social aberta e o material de abuso sexual infantil (CSAM). Em uma entrevista recente, Roth está preocupado com a falta de veículos moderados disponíveis para as redes sociais Fedivese – contendo aplicativos como Mastodon, Threads, Pixellfed e outros e outras plataformas abertas, como Bluesky.

Além disso, a decisão de proibir o presidente Trump da plataforma lembrou os principais momentos no Twitter, como desinformação e CEO Jack Dorsey, incluindo o CEO Jack Dorsey.

No podcast @Rabble com revolution.SocialRoth apontou que os esforços para criar comunidades mais democraticamente on -line na rede social aberta também têm pelo menos os esforços de moderação.

“… Olhando para o Mastodon, olhando para outros serviços com base no ActivityPub (protocolo), olhando para o Bluesky nos primeiros dias e então ele começou a desenvolver os fios quando começou a desenvolver meta, era as ferramentas técnicas mínimas para gerenciar suas políticas no controle baseado na comunidade.

https://www.youtube.com/watch?v=ys_cxvrkyve

Ele também viu um “grande retrocesso ında na rede social aberta quando se tratava da legitimidade da transparência e da decisão do Twitter. Provavelmente, muitos deles não participaram da decisão do Twitter de proibir Trump, mas a empresa anunciou o motivo para fazê -lo. Agora, os provedores de mídia social estão tão preocupados em impedir que os maus atores os que os expliquem raramente expliquem.

Enquanto isso, em muitas plataformas sociais abertas, os usuários não receberiam uma notificação sobre suas publicações proibidas e suas publicações desapareceriam – não havia sequer uma indicação para outros de que a remessa existia.

“Não culpo novas peças de software ou peças de software porque não têm todos os sinos e assobios, mas todo o objetivo do projeto aumenta a legitimidade democrática da governança e o que fazemos é dar um passo atrás para a administração, então funcionou realmente?” Roth Wonder.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

Economia de moderação

Além disso, a economia de moderação e a abordagem da federação levantaram problemas sobre como ainda não é sustentável nessa frente.

Por exemplo, uma organização chamada IFTA (confiança e segurança federada independente) estava tentando criar ferramentas de moderação para o FETEVRE, incluindo o acesso a veículos para combater o CSAM com Federivere, mas seu dinheiro estava exausto e Ele teve que fechar muitos Em 2025, projetos anteriores.

“Vimos que isso aconteceu há dois anos. Vimos que o IFTAS chegou. Todo mundo que trabalha nesse campo é em grande parte um tempo e esforços voluntários, e isso só vai tão longe, porque eles têm famílias em algum momento e precisam pagar faturas e eles precisam calcular os custos se você precisar executar modelos de ML para detectar certos tipos de maus conteúdo”. “Tudo está se tornando caro e a economia dessa abordagem da federação para confiança e segurança nunca se encontrou. E eu não acho que ainda não esteja.”

Enquanto isso, Bluesky escolheu empregar moderadores e contratar confiança e segurança, mas se limita ao controle de sua própria prática. Eles também fornecem ferramentas que permitem que as pessoas personalizem suas preferências de moderação.

Roth, “eles escalam esse trabalho. Obviamente, há um lugar para melhorias. No entanto, à medida que o serviço se torna ainda mais descentralizado, o Bluesky será responsável por proteger o indivíduo das necessidades da comunidade.

Por exemplo, com doxxing, é possível ver que as informações pessoais de alguém se espalham on -line para como elas configuram ferramentas moderadas. No entanto, mesmo que o usuário não esteja no aplicativo Bluesky principal, ele ainda deve ser de responsabilidade de alguém aplicar esses guardas.

Onde desenhar a linha de privacidade

Outra questão que o Fediver enfrenta é que a decisão de apoiar a privacidade pode impedir tentativas de moderação. O Twitter reuniu coisas como o endereço IP do usuário quando eles tentam não armazenar dados pessoais de que não precisam e quando atingem o serviço, identificadores de dispositivos e muito mais. Isso ajudou a empresa quando algo como a fazenda russa de trolls teve que analisar a análise judicial.

Enquanto isso, os gerentes federivos podem nem coletar os diários necessários, ou podem não vê -los se acharem que o usuário é uma violação da confidencialidade.

Mas a verdade é que, sem dados, é mais difícil atrapalhar quem realmente é um bot.

Roth apresentou alguns exemplos dos dias do Twitter e disse como as respostas dos usuários para “Boots ına a todos com quem não concordam. De um ator russo que afirma ser Crystal JohnsonUma mulher negra de Nova York.

“O CEO da empresa gostou desse conteúdo, fortalecido, e não havia como saber que Crystal Johnson era na verdade um troll russo, disse Rut. Roth.

Papel ai

Uma discussão oportuna foi como a IA mudou a paisagem. Em um contexto político de Stanford, Roth se referiu às pesquisas mais recentes que descobriram que os grandes modelos de idiomas (LLMs) podem ser mais convincentes do que as pessoas quando são ajustadas adequadamente.

Isso significa que uma solução baseada apenas na análise de conteúdo não é suficiente.

Em vez disso, as empresas precisam monitorar outros sinais comportamentais – como publicar mais de uma conta, se usarem a automação para publicar, ou em momentos estranhos que correspondem a diferentes períodos de tempo durante os tempos estranhos do dia.

“Esses são os sinais comportamentais que estão ocultos mesmo em conteúdo convincente. E acho que é aqui que você precisa começar”, disse Roth. “Se você iniciar o conteúdo, está em uma corrida de armas contra os principais modelos de IA e já perdeu”.

Link da fonte