Par Yann Fontana à Grenoble le 8 octobre 2024
Linkedin: https://www.linkedin.com/in/yann-fontana/

Les bases de données spécialisées dans le stockage de vecteurs font beaucoup parler d'elles depuis 2 ans. Ces bases permettent notamment de stocker de manière optimisée des embeddings, qui sont des représentations vectorielles du sens de mots, phrases ou paragraphes de texte. Ces capacités ouvrent de nombreuses possibilités de recherche en langage naturel, que ce soit pour améliorer les performances des systèmes d'IA génératives, en ancrant leurs réponses dans des connaissances précises (RAG : retrieval-augmented generation), ou pour améliorer des moteurs de recherche "classiques".
Ce qui fait nettement moins parler, c'est la mise à l'échelle de ces bases vectorielles. Celle-ci est compliquée par un élément simple, mais pourtant peu connu : alors que les structures des BDD "classiques" (index B-tree, hash, inversé...) sont optimisées pour être lues depuis un disque, celles des BDD vectorielles le sont pour être entièrement stockées en mémoire!

Slides

Commentaires