Par Thomas Laforge à Grenoble le 12 mai 2026
Linkedin: https://www.linkedin.com/in/thomas-laforge-b5936374/

Exécuter un LLM de pointe sur sa propre machine n'est plus un fantasme : avec Gemma 4, on dispose d'un modèle ouvert dont les performances rivalisent avec les API commerciales, tout en restant déployable sur un laptop ou un serveur on-prem.
Dans ce talk, je montre comment faire tourner Gemma 4 derrière une API locale compatible OpenAI, puis comment s'en servir pour construire un mini-RAG de bout en bout — le tout sans qu'aucune donnée ne quitte la machine.
Ce que vous repartirez avec :

une archi simple et reproductible pour servir Gemma 4 en local
une démo live d'un mini-RAG branché sur l'API locale
un retour honnête sur ce qui marche, ce qui coince, et quand ça vaut vraiment le coup face au cloud

Pour qui : devs et tech leads qui veulent garder la main sur leurs données sans renoncer à la qualité d'un bon LLM.
Format : 10 min, démo live incluse.

Commentaires