Plataformas cooperam com investigações, mas ainda falta moderação

Publicado:

A presença massiva de crianças e adolescentes nos ambientes digitais tem mobilizado as autoridades a redobrar o monitoramento de crimes cibernéticos. Investigações mostram que, embora as grandes plataformas tecnológicas colaborem em diversos casos, a moderação ainda é um aspecto que precisa de melhorias significativas.

Moderação refere-se ao conjunto de políticas e ferramentas que as plataformas usam para revisar, filtrar e restringir conteúdos nocivos. Essa tarefa pode ser realizada por inteligência artificial ou por equipes humanas, mas a eficácia dessa combinação varia amplamente. Para que os ambientes online sejam seguros, é essencial que esse processo seja robusto e ágil.

Os mecanismos de moderação têm como finalidade a prevenção de discursos de ódio, desinformação e outras práticas nocivas, especialmente aquelas que ameaçam a segurança de crianças e adolescentes, como aliciamento e abuso sexual. Quando bem implementada, a moderação não apenas bloqueia conteúdos ilegais, mas também facilita investigações policiais. No entanto, falhas nessa área podem deixar brechas que criminosos exploram.

Alesandro Barreto, coordenador do Ciberlab do Ministério da Justiça, ressalta que a colaboração das plataformas tem sido essencial para desmantelar redes criminosas. “Vimos casos resolvidos rapidamente, com criminosos sendo identificados antes mesmo de um boletim de ocorrência ser registrado”, afirma. Essa agilidade é um reflexo do avanço nas capacidades investigativas, mas Barreto também aponta a necessidade de melhorias nos algoritmos de moderação para que conteúdos prejudiciais possam ser removidos em tempo real.

Michele Prado, especialista em radicalização online, destaca que jovens frequentemente burlam sistemas de proteção, adaptando-se rapidamente às novas dinâmicas digitais. Essa fluidez torna a moderação ainda mais desafiadora, exigindo uma resposta mais sofisticada das plataformas. Para Fábio Vieira Costa, procurador de Justiça, o foco deve ir além das big techs, considerando o ecossistema digital diversificado onde adolescentes e criminosos interagem, muitas vezes em plataformas menos conhecidas.

Imagem colorida de pessoa interagindo nas redes sociais - Metrópoles
Pessoa interagindo nas redes sociais

A proliferação de perfis falsos e o anonimato facilitam a ação de cibercriminosos. Embora as plataformas ofereçam mecanismos de verificação, a utilização de pseudônimos impede o rastreamento dos responsáveis. A moderação, muitas vezes reativa, luta para acompanhar as rápidas mudanças na linguagem utilizada por usuários, especialmente os mais jovens, que dominam gírias e códigos que dificultam a detecção automatizada de conteúdos nocivos.

Exemplos como o uso da palavra “luz” como código por grupos criminosos demonstram a necessidade de ser proativo na identificação de expressões que podem indicar comportamentos perigosos. Eventos de automutilação e dinâmicas de risco, muitas vezes banalizados entre jovens, refletem o quão rápida é essa adaptação linguística entre os usuários. Quando uma expressão é identificada, rapidamente é substituída por outra, dificultando a intervenção das autoridades.

Embora haja chamadas para melhorias, como identificação obrigatória e auditorias automatizadas, a implementação dessas medidas depende da disposição técnica e comercial das plataformas para priorizar a segurança dos usuários. Diante do aumento de crimes cibernéticos, as redes sociais estão se comprometendo a reforçar suas políticas de moderação, adotando novas ferramentas de proteção e intensificando a colaboração com autoridades.

Plataformas como Discord, TikTok e as da Meta destacam seus esforços em desenvolver tecnologias de detecção e oferecer suporte em investigações policiais. O Discord, por exemplo, enfatiza sua proatividade na denúncia de comportamentos de risco e investe em capacitações para agentes de segurança, assegurando que informações críticas sejam compartilhadas eficiente e rapidamente.

TikTok afirma que a segurança juvenil é uma prioridade e que sua infraestrutura foi projetada com foco nesta proteção. Enquanto isso, a Meta adotou medidas rigorosas para garantir que apenas usuários com idade mínima possam criar contas, além de implementar novas funcionalidades específicas para adolescentes, visando proteger sua interação nas redes.

O Roblox, por sua vez, continua a aprimorar suas políticas e ferramentas de segurança, especialmente para jovens usuários, com um olhar forte voltado aos desafios emergentes no ambiente digital. À medida que as plataformas se adaptam e investem em soluções mais robustas, a segurança dos usuários deve ser sempre o foco central.

E você, qual a sua opinião sobre a segurança nas redes sociais? Quais medidas você considera essenciais para proteger crianças e adolescentes online? Compartilhe seus pensamentos nos comentários!

“`

Comentários Facebook

Compartilhe esse artigo:

ÚLTIMAS NOTÍCIAS

Vereador de Paulo Afonso é encontrado morto; caso ocorreu após homicídio

Na noite de quinta-feira (17), a cidade de Paulo Afonso foi abalada pela trágica notícia do falecimento do vereador Albério Carlos Caetano da...

Tarcísio critica nova ação da PF contra Bolsonaro: “Sucessão de erros”

O governador de São Paulo, Tarcísio de Freitas, expressou seu apoio incondicional a Jair Bolsonaro diante da recente operação da Polícia Federal, que...

Denúncia anônima leva PM a prender suspeito com arma de uso restrito em Teixeira de Freitas

Uma denúncia anônima se tornou um ponto de virada em Teixeira de Freitas, resultando na prisão de um homem armado na noite de...