Par Willy Malvault à Grenoble le 14 mai 2024
Twitter: https://twitter.com/malvaultw
Linkedin: https://fr.linkedin.com/in/willy-malvault-aa584814

L'IA générative, cet outil à la hype que l'on ne présente plus, mais qui a quand même son lot de phénomènes amusants. Vous voyez ce que c'est l'injection de prompt ? Vous avez entendu parler des jailbreaks ? De l'attaque de la grand-mère ?

L'injection de prompt, c'est un modèle de faille, quasiment infini, permettant de contourner les règles d'un moteur LLM, juste en utilisant de la logique naturelle. Plutôt compliqué à défendre comme attaque...

En 10 minutes j'essaie de vous expliquer la problématique de l'injection de prompt, ainsi que les solutions naissantes qui permettent de s'en protéger.

Twitter: https://twitter.com/malvaultw
Linkedin: https://fr.linkedin.com/in/willy-malvault-aa584814

Commentaires