Enquête
LLM Maison
2025
Découvrez comment la communauté francophone auto-héberge les IA génératives.
Installations locales, cloud, matériel et retours d'expérience partagés librement sous licence Creative Commons.
Le projet LLM Maison 2025 collecte et partage les expériences de la communauté francophone dans le déploiement et l'utilisation de grands modèles de langage (LLM).
Que vous utilisiez des solutions cloud, des installations locales en entreprise ou même des configurations CPU, votre expérience contribue à une meilleure compréhension de l'écosystème LLM souverain.
Cette initiative vise à documenter les choix technologiques, les coûts, les performances et les usages réels des LLM dans différents contextes. Évitons les gâchis de matériel en partageant nos bonnes pratiques.
Une cartographie collaborative des installations LLM dans le monde francophone pour une IA frugale et souveraine.
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0
Installations de la communauté
Découvrez un échantillon des installations LLM partagées par la communauté française. Chaque installation documente les choix techniques, les performances et les coûts.
LLM Maison (anonyme)
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: ollama open webui
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Eric Burel - LBKE
Installation: Directement sur ma machine
Logiciels: Open WebUI
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Cédric Trachsel
Installation: Directement sur ma machine
Logiciels: ollama et openwebui les deux dockerisé
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Vous souhaitez créer votre plateforme d'IA privée et interne à votre
organisation ?
Découvrez le guide complet de l'auto-hébergement des IA génératives en
entreprise.
Il vous aidera à cerner les enjeux techniques de l'hébergement
local d'un LLM : quel matériel, quel modèles d'IA ou encore quels logiciels
installer pour créer votre plateforme LLM.