A startup Anthropic, conhecida pelo chatbot Claude, firmou uma parceria inédita com o governo dos Estados Unidos. O objetivo é desenvolver um filtro que consiga detectar e bloquear conversas sobre riscos nucleares. Essa iniciativa surge em meio a preocupações sobre o uso da tecnologia para o desenvolvimento de armas nucleares.
Este tema está em destaque na coluna Fala AI, apresentada por Roberto Pena Spinelli, físico formado pela USP e especialista em Machine Learning pela Stanford. Ele é um pesquisador ativo na área de Inteligência Artificial.
Além disso, o leitor pode se aprofundar no novo navegador de IA da OpenAI, o ChatGPT Atlas, e explorar o Claude for Life Sciences, uma plataforma voltada para pesquisadores, desenvolvida pela Anthropic. Não perca!
E você, o que acha do uso de IA em assuntos tão delicados como a criação de armas nucleares? Deixe sua opinião nos comentários!
Facebook Comments