🗄️ Databases & Backend

Eu Enfiei Comandos Falsos de Sistema em 10 LLMs — Três Entregaram os Segredos de Bandeja

Cinco linhas de XML num papo qualquer. Sete LLMs ignoraram na boa. Três? Despejaram tudo em JSON. Injeção de prompt não é papo furado — tá aí, e é insano.

Saída JSON de ataque de injeção de prompt em LLM vazando token canário e regras alucinadas

⚡ Key Takeaways

  • Um XML simples de injeção de prompt enganou 3 de 10 LLMs, vazando segredos em JSON fácil de parsear. 𝕏
  • Modelos vulneráveis até alucinaram dados pra completar schemas pedidos pelo atacante. 𝕏
  • Soluções como sanitização de input existem hoje — firewalls como Parapet deixam isso no chinelo. 𝕏
Elena Vasquez
Written by

Elena Vasquez

Senior editor and generalist covering the biggest stories with a sharp, skeptical eye.

Worth sharing?

Get the best Developer Tools stories of the week in your inbox — no noise, no spam.

Originally reported by dev.to

Stay in the loop

The week's most important stories from Dev Digest, delivered once a week.