DestaqueUOL

Áudio viral de bebê boiando: como a inteligência artificial pode distorcer a realidade e disseminar desinformação




Artigo Jornalístico

Você pode criar, por exemplo, um storytelling, uma história que seja positiva com fins benignos. Ou, por outro lado, criar histórias que levam à desinformação. Anderson Rocha

Distinção do que é real. Para a pesquisadora Cristina Godoy, do Grupo de Pesquisa Direito Ética e Inteligência Artificial da USP, a geração de imagens por IA pode fazer com que as pessoas tenham dificuldade de diferenciar o que é realidade e o que é ficção. E no contexto da tragédia, se torna ainda mais importante mostrar o que é real.

As tragédias chamam muito a atenção dos indivíduos. É importante apresentar aquilo que é real, o que aconteceu. E é importante para a gente aprender, saber o que essa tragédia causou, impactou, por determinados tipos de omissões, por determinados tipos de problemas, ou avisos que não foram seguidos e assim por diante. A realidade sempre é muito importante.

Agora, aquilo que ultrapassa, que não existiu, extrapolando e tentando explorar uma situação que já é ruim para torná-la pior ainda, gerar impacto e, às vezes, gerar engajamento, a gente não pode deixar de analisar qual foi o objetivo da pessoa.
Cristina Godoy

Bebê morto boiando

Áudio viral e imagem de bebê boiando. Logo nos primeiros dias após a chuva do início de maio, um áudio viralizou nas redes sociais. Nele, uma pessoa relatava que uma criança teria pedido que ela resgatasse uma boneca na enchente e, ao puxar o braço do brinquedo, o socorrista percebeu se tratar de um bebê morto. Não foi possível verificar a autenticidade do relato, mas nenhum órgão confirmou a história. Em poucos dias, uma imagem representativa do bebê boiando, gerada por inteligência artificial, foi compartilhada nas redes. As legendas indicavam a relação com o áudio.


No cenário digital, a disseminação de informações falsas ganha cada vez mais espaço e é preciso estar atento para não cair em fake news. A capacidade da inteligência artificial de gerar imagens realistas tem levantado questões sobre a distinção do que é real e o que é ficção. Para a pesquisadora Cristina Godoy, do Grupo de Pesquisa Direito Ética e Inteligência Artificial da USP, a geração de imagens por IA pode causar dificuldades para as pessoas diferenciarem a realidade da ficção, tornando-se ainda mais crucial mostrar o que é verdadeiro, especialmente em contextos de tragédia.

Em meio a uma situação trágica envolvendo uma enchente, um áudio viral surgiu nas redes sociais, relatando a descoberta de um bebê morto boiando. No entanto, a autenticidade do relato não pôde ser verificada e nenhum órgão confirmou a história. Poucos dias depois, uma imagem gerada por inteligência artificial, representando o bebê boiando, foi compartilhada nas redes, acompanhada de legendas relacionando-a ao áudio viral.

O que chama atenção nesse caso é a manipulação da informação e a forma como a IA pode ser usada para gerar impacto emocional. Cristina Godoy ressalta a importância de analisar os objetivos por trás de histórias que extrapolam a realidade e buscam explorar situações já delicadas. Em um momento de tragédia, a realidade se torna ainda mais crucial para compreender as consequências e os impactos do evento. A disseminação de desinformação pode confundir e distorcer a percepção das pessoas, tornando fundamental a busca pela verdade e a verificação dos fatos.

Portanto, é essencial reforçar a importância da veracidade das informações, especialmente em momentos de crise e tragédia. A ética na utilização da tecnologia e a responsabilidade na disseminação de conteúdo são fundamentais para evitar a propagação de fake news e garantir a integridade da informação. A verdade sempre deve prevalecer, mesmo diante de histórias sensacionalistas e manipuladoras. A transparência e a veracidade são pilares essenciais para a construção de uma sociedade informada e consciente.

Artigos relacionados

Botão Voltar ao topo