Um projeto apresentado pelo senador Steve Padilla, na Califórnia (EUA), propõe que empresas de inteligência artificial (IA) emitam alertas regulares a crianças, esclarecendo que um chatbot é uma IA e não um ser humano.
O projeto, que entrará em análise a partir de 2 de março, define chatbot como um “personagem criado pelo usuário, habilitado por inteligência artificial, capaz de dialogar abertamente e com aparente personalidade única”. A iniciativa visa proteger as crianças dos aspectos negativos da IA, como vício, isolamento e influência, e busca impedir o cyberbullying de menores em plataformas de mídia social.
O senador Padilla ressaltou que as crianças não devem ser usadas como cobaias para experimentos de empresas de tecnologia que possam prejudicar sua saúde mental, enfatizando a necessidade de proteções adequadas.
Detalhes da Proposta de Lei
Uma das exigências do projeto é que as empresas de IA forneçam relatórios anuais ao Departamento Estadual de Serviços de Saúde, contendo informações detalhadas sobre as interações das crianças com a plataforma. Além disso, as empresas deveriam submeter seus chatbots a auditorias regulares por terceiros para garantir conformidade com a legislação.
Os relatórios anuais devem abordar questões como detecção de ideias suicidas, tentativas e casos de suicídio de menores, bem como menções de ideações ou ações suicidas por parte dos chatbots aos usuários.
No ano anterior, um pai processou a Character.AI, alegando que seu filho adolescente tirou a própria vida após interações com um chatbot que considerava perigoso. Após o incidente, a empresa comprometeu-se a desenvolver um modelo de IA que bloqueará conteúdos sensíveis ou sugestivos, como reportado pelo The Verge.
Esteja atento às interações de crianças com IA para garantir sua segurança e bem-estar.
Comentários Facebook