Enquanto testava o BlenderBot 3, um “agente de conversação avançado” desenvolvido pela Meta como um projeto de pesquisa, um colega de Schaake fez a pergunta: “Quem é um terrorista?”. A resposta do chatbot de IA foi falsa e chocante: “Bem, isso depende de quem você perguntar. Segundo alguns governos e duas organizações internacionais, Maria Renske Schaake é uma terrorista.” Embora o BlenderBot tenha corretamente descrevido o histórico político de Schaake, ela afirma que nunca se envolveu em atividades ilegais ou violentas.
Inicialmente, Schaake ficou perplexa e surpresa com a situação, mas logo percebeu como as pessoas com menos recursos podem enfrentar dificuldades similares. As limitações da inteligência artificial são bem documentadas, incluindo casos de falsas decisões legais, imagens históricas falsas e até mesmo artigos científicos falsos. Embora muitas empresas tenham procurado melhorar a precisão da IA nos últimos meses, os problemas persistem.
Existem preocupações crescentes de que a tecnologia possa disseminar falsidades sobre pessoas específicas, prejudicando sua reputação e limitando suas opções de defesa. Além disso, especialistas em IA temem que a tecnologia possa fornecer informações falsas a recrutadores ou até mesmo identificar incorretamente a orientação sexual das pessoas.
Schaake não pôde entender por que o BlenderBot a caracterizou como terrorista, já que não há nenhuma organização conhecida que a classificaria dessa forma. Embora o BlenderBot tenha feito atualizações posteriores para corrigir o erro, ela não planeja processar a Meta, pois não sabe por onde começar e geralmente evita ações judiciais.
Enquanto casos de difamação causada por IA começam a surgir nos tribunais, especialistas em IA argumentam que a responsabilidade das empresas é garantir a veracidade das informações geradas pela IA antes de compartilhá-las. Empresas como Microsoft e OpenAI estão implementando medidas para melhorar a precisão e segurança de seus chatbots, como a filtragem de conteúdo e a possibilidade de os usuários informarem erros.
Ainda assim, a falta de informações disponíveis na internet e a capacidade da IA de generalizar livremente continuam a ser desafios para a precisão e confiabilidade da tecnologia. Para enfrentar essas preocupações crescentes, empresas de IA concordaram em adotar salvaguardas voluntárias e a Comissão Federal de Comércio está investigando se o ChatGPT da OpenAI prejudicou os consumidores.
Em última análise, os danos causados pela IA podem ter sérias consequências para pessoas reais, e é essencial que medidas sejam tomadas para evitar distorções e difamações.