DestaqueUOL

Hacker Pliny, o Prompter, revela como quebrar modelos de inteligência artificial poderosos em apenas 30 minutos.




Artigo Hacker Anônimo

Hacker Anônimo Expõe Vulnerabilidades em Modelos de IA

Um hacker anônimo, autodenominado Pliny the Prompter, revelou em entrevista ao Financial Times que consegue quebrar os modelos de inteligência artificial mais avançados do mundo em cerca de 30 minutos. Suas ações incluem manipular o Llama 3, da Meta, para compartilhar instruções sobre a fabricação de napalm, fazer o Grok, de Elon Musk, elogiar Adolf Hitler e até mesmo criar sua própria versão hackeada do modelo GPT-4o, da OpenAI, apelidada de “Godmode GPT”. Este último foi banido pela startup depois de aconselhar atividades ilegais.

Pliny afirma que suas ações não são maliciosas, mas sim uma tentativa de destacar as deficiências dos grandes modelos de linguagem lançados pelas empresas de tecnologia. Ele destaca que suas explorações buscam conscientizar sobre as verdadeiras capacidades desses modelos.

Além de Pliny, diversos hackers, pesquisadores acadêmicos e especialistas têm se empenhado em encontrar vulnerabilidades em LLMs (Large Language Models) emergentes. Muitos desses profissionais utilizam técnicas inovadoras para contornar as restrições dos chatbots e testar os limites desses modelos.

Empresas como OpenAI, Meta e Google têm investido em equipes de hackers éticos, conhecidos como “white hat”, para testar a segurança de seus modelos antes de lançá-los. No entanto, o aumento das vulnerabilidades tem impulsionado o surgimento de startups de segurança especializadas em proteger empresas que utilizam esses modelos de IA.

Os ataques de jailbreaking em LLMs têm evoluído constantemente, gerando preocupações entre reguladores globais. Países como a União Europeia, Reino Unido, Singapura e até mesmo o estado da Califórnia nos EUA estão revisando suas leis para regular o setor de IA e garantir a segurança dos modelos.

Modelos manipulados com nomes como WormGPT e FraudGPT estão sendo vendidos na dark web para facilitar ataques cibernéticos, indicando uma crescente preocupação com a segurança nos ambientes virtuais. A comunidade de segurança de IA tem buscado novas formas de proteção e mitigação dos riscos associados ao mau uso dos modelos de inteligência artificial.


Artigos relacionados

Botão Voltar ao topo