Enquête
LLM Maison
2025

Découvrez comment la communauté francophone auto-héberge les IA génératives.

Installations locales, cloud, matériel et retours d'expérience partagés librement sous licence Creative Commons.

LLM Maison 2025

Le projet LLM Maison 2025 collecte et partage les expériences de la communauté francophone dans le déploiement et l'utilisation de grands modèles de langage (LLM).

Que vous utilisiez des solutions cloud, des installations locales en entreprise ou même des configurations CPU, votre expérience contribue à une meilleure compréhension de l'écosystème LLM souverain.

Cette initiative vise à documenter les choix technologiques, les coûts, les performances et les usages réels des LLM dans différents contextes. Évitons les gâchis de matériel en partageant nos bonnes pratiques.

Une cartographie collaborative des installations LLM dans le monde francophone pour une IA frugale et souveraine.

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Installations de la communauté

Découvrez un échantillon des installations LLM partagées par la communauté française. Chaque installation documente les choix techniques, les performances et les coûts.

CNRS

gpt-oss:20b

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

YANN DELCAMBRE LATMOS

llama3.1

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: Python maison pour optimiser mon rag

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

Installation: Directement sur ma machine

Logiciels: OpenWebUI

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

mistral-small

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

Patrice Cosson

gemma3:270m

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: OpenWebUI Ollama

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

LLM Maison (anonyme)

mistral 7B

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Vous souhaitez créer votre plateforme d'IA privée et interne à votre organisation ?
Découvrez le guide complet de l'auto-hébergement des IA génératives en entreprise.
Il vous aidera à cerner les enjeux techniques de l'hébergement local d'un LLM : quel matériel, quel modèles d'IA ou encore quels logiciels installer pour créer votre plateforme LLM.