Fotos de crianças brasileiras são utilizadas em ferramentas de inteligência artificial sem consentimento, alerta Human Rights Watch.

De acordo com o relatório da Human Rights Watch, foram identificadas 170 fotos de crianças provenientes de pelo menos 10 estados brasileiros. Essas fotos retratam momentos como nascimentos de bebês, festas de aniversário e apresentações em escolas. Todas essas imagens fazem parte de um banco de dados conhecido como LAION-5B, utilizado para o treinamento de algoritmos de IA.
Embora o número de fotos seja relativamente baixo se considerarmos a vasta quantidade de imagens presentes no banco de dados, a situação levanta preocupações sobre a privacidade e segurança das informações pessoais dos indivíduos. Algumas dessas fotos foram compartilhadas há anos por crianças, adolescentes, pais e familiares em plataformas online, sem imaginar que poderiam ser utilizadas de forma indevida.
A pesquisadora de Direitos da Criança e Tecnologia da Human Rights Watch, Hye Jung Han, ressaltou que a inteligência artificial facilitou a criação de deepfakes nocivos e não consensuais, que podem se espalhar rapidamente pela internet. Os deepfakes permitem a manipulação de vídeos e fotos de forma extremamente realista, comprometendo a integridade e privacidade das pessoas envolvidas.
A organização identificou que as fotos das crianças brasileiras não são facilmente acessíveis através de pesquisas online, o que indica que a exposição das imagens foi resultado de uma falha na proteção de dados por parte de grandes empresas e redes sociais. A instituição alemã responsável pelo banco de dados LAION-5B se comprometeu a remover as fotos pessoais das crianças e contestou que os modelos de IA treinados possam reproduzir dados pessoais de forma literal.
Diante desse cenário, a coordenadora do Programa Criança e Consumo do Instituto Alana, Maria Mello, ressaltou a importância da aplicação da legislação no ambiente digital para proteção dos usuários, especialmente crianças e adolescentes. A pesquisadora enfatizou a necessidade de garantir o cuidado e segurança desses públicos diante dos desafios apresentados pela inteligência artificial.