Redes afirmam que colaboram com investigações de crimes on-line

Publicado:

O Brasil vem enfrentando um aumento alarmante de crimes cibernéticos direcionados a crianças e adolescentes. Em resposta a esse cenário, as redes sociais estão intensificando seus esforços para reforçar a moderação de conteúdo e introduzir novas ferramentas de proteção, além de colaborar mais estreitamente com as autoridades. Uma tendência que se espalha por plataformas como Discord, WhatsApp, TikTok e ecossistemas de jogos, onde vulnerabilidades são frequentemente exploradas por criminosos em busca de vítimas.

Investigadores e especialistas observam que as situações de exploração sexual, assédio e aliciamento online estão se tornando mais comuns. As plataformas digitais, embora criadas com intenções lícitas, estão sendo mal utilizadas, destacando a necessidade urgente de aprimorar a vigilância sobre o comportamento dos usuários. “O que acontece é que o criminoso pega o que foi criado de forma lícita e passa a utilizá-lo de maneira ilícita”, explica Alesandro Barreto, coordenador do Ciberlab do Ministério da Justiça.

As redes reconhecem sua responsabilidade e estão ativamente implementando mecanismos para mitigar esses riscos. O TikTok, por exemplo, enfatiza que a segurança dos jovens é uma prioridade, com uma arquitetura desenhada para proteção desde o princípio. A plataforma relata que compartilha informações com a polícia sempre que identifica ameaças reais. Cita ainda sua equipe de moderação, composta por mais de 40 mil profissionais, que garante um ambiente mais seguro para usuários entre 13 e 18 anos, oferecendo configurações específicas de proteção.

Discord também se compromete com a segurança, colaborando com autoridades para denunciar comportamentos de risco. A plataforma oferece treinamento constante aos policiais, ensinando como requisitar informações de forma eficaz. Além disso, utiliza sistemas de moderação que monitoram tendências e expressões utilizadas por criminosos para contornar as regras, como a mudança de termos sensitivos.

Meta, responsável por aplicativos como WhatsApp e Instagram, implementou contas de adolescente e garante que apenas usuários acima de 13 anos podem se registrar. As proteções integradas buscam limitar interações e conteúdos que possam prejudicar esse grupo etário. A empresa afirma que removeu mais de 12 milhões de conteúdos relacionados à exploração infantil, utilizando tecnologia avançada para identificar esses materiais de forma proativa.

No universo dos jogos, plataformas como Roblox estão cada vez mais na mira dos criminosos. Embora não detalhem ações específicas, a empresa destaca que está constantemente aprimorando suas políticas de segurança e capacitando pais para monitorar a atividade de seus filhos. Em 2024, foram introduzidos mais de 40 novos recursos de proteção para fortalecer a segurança de sua comunidade jovem.

No cenário atual, a responsabilidade de proteger as crianças e adolescentes nas redes sociais e plataformas de jogos não é apenas das empresas, mas de todos nós. A conscientização sobre o uso seguro e as possíveis ameaças é crucial. Que tal compartilhar suas experiências e opiniões sobre como podemos melhorar a segurança online? Deixe seu comentário!

Comentários Facebook

Compartilhe esse artigo:

ÚLTIMAS NOTÍCIAS

Suspeito de matar Larissa Pavan em corrida por aplicativo é preso em Guarajuba

Na noite de 7 de dezembro de 2024, uma tragédia abalou a cidade de Eunápolis e ressoou por todo o Brasil. Larissa Pavan...

PF leva HDs de empresas de ex-vereador em 5ª fase da Overclean na Bahia; empresário já foi preso em operação

A Polícia Federal intensificou suas investigações na Bahia, realizando a apreensão de malotes em escritórios ligados a Evandro Baldino do Nascimento, ex-presidente da...

Suspeito morre após tentativa de assalto em ônibus lotado na Ladeira do Cacau, em Salvador

Na manhã desta quinta-feira, um fato trágico ocorreu em Salvador, marcando uma tentativa de assalto em um ônibus lotado na Ladeira do Cacau....