Agentes digitais prometem facilitar a vida do usuário, mas ainda esbarram em falhas e riscos de privacidade.

Imagem: Mer_Studio/Shutterstock

Cancelar serviços de streaming, como Netflix ou Spotify, pode ser uma tarefa complicada. Muitas empresas dificultam esse processo como parte de suas estratégias comerciais. Um exemplo é a Amazon, que até pagou US$ 2,5 bilhões por práticas que tornavam o cancelamento do Prime mais difícil.

Nesse contexto, os agentes de inteligência artificial surgem como uma possível solução. Um artigo do Washington Post destaca como essa tecnologia pode simplificar esses cancelamentos.

IA encerrando assinaturas da Netflix ou Spotify

  • No ChatGPT, a função “modo agente” permite que a IA navegue em sites e conclua processos, como o cancelamento de assinaturas.
  • Usuários relatam que a ferramenta já conseguiu encerrar serviços como Netflix, Spotify e Dropbox, mas falhou em plataformas como Amazon Prime e Google One.
  • A IA se destaca pela capacidade de interpretar telas, ampliando seu potencial de atuação.
  • Apesar disso, especialistas alertam que esses agentes não são totalmente confiáveis e devem ser usados apenas em tarefas que não envolvem riscos altos.

Limitações, riscos e próximos passos

Embora a tecnologia tenha avançado, a experiência pode ser lenta e sujeita a erros, especialmente com as barreiras que grandes empresas impõem ao acesso automatizado.

Além disso, há preocupações sobre segurança: para funcionar, a IA precisa do login e senha dos usuários, o que exige cuidados com privacidade e proteção de dados.

Pesquisadores advertir que dar acesso a agentes de IA para decisões que envolvem riscos altos é desaconselhável. O melhor conselho é usar com cautela e sempre verificar os resultados.

Enquanto isso, gigantes como Google estão planejando integrar recursos semelhantes em seus navegadores, indicando que esses agentes devem se tornar cada vez mais comuns no dia a dia digital.

Pessoa teclando em um notebook
Agentes de IA aprendem a cancelar assinaturas — mas não são infalíveis (Imagem: tadamichi/Shutterstock)