Injection de prompt, Jailbreak et protection de l'IA générative
Par
Willy Malvault
à
Grenoble
le
mardi 14 mai
Twitter: https://twitter.com/malvaultw
Linkedin: https://fr.linkedin.com/in/willy-malvault-aa584814
L'IA générative, cet outil à la hype que l'on ne présente plus, mais qui a quand même son lot de phénomènes amusants. Vous voyez ce que c'est l'injection de prompt ? Vous avez entendu parler des jailbreaks ? De l'attaque de la grand-mère ?
L'injection de prompt, c'est un modèle de faille, quasiment infini, permettant de contourner les règles d'un moteur LLM, juste en utilisant de la logique naturelle. Plutôt compliqué à défendre comme attaque...
En 10 minutes j'essaie de vous expliquer la problématique de l'injection de prompt, ainsi que les solutions naissantes qui permettent de s'en protéger.
Twitter: https://twitter.com/malvaultw
Linkedin: https://fr.linkedin.com/in/willy-malvault-aa584814
Commentaires