Toutes les installations LLM de la communauté
Découvrez l'intégralité des configurations LLM partagées par la communauté francophone. Matériel, logiciels, performances et coûts détaillés pour chaque installation.
Découvrez 16 installations LLM en auto-hébergement documentées par la communauté française. Chaque installation est une source précieuse d'informations sur les choix technologiques, les performances obtenues et les coûts réels de l'auto-hébergement d'intelligences artificielles génératives (LLM).
Que vous soyez débutant ou expert, ces retours d'expérience vous aideront à investir intelligement dans votre infrastructure LLM.
L'Agence LLM remercie les contributeurs qui partagent leurs expériences et rendent cette cartographie collaborative possible. Cette démarche contribue à une IA française plus souveraine et efficace.
16 installations documentées
Cliquez sur une installation pour découvrir tous les détails techniques, les performances et l'expérience partagée par son utilisateur.
Patrice Cosson
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: OpenWebUI Ollama
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
YANN DELCAMBRE LATMOS
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: Python maison pour optimiser mon rag
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
CNRS
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: OpenWebUI
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)
Logiciels: vLLM
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
EBII s.a.s.u.
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: LmStudio/ Vllm / un dev perso
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: ollama open webui
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Charles Bonnissent
Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)
Logiciels: Openwebui, sst/opencode
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama, Open-webui, continue
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: Openweb UI
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Christian Lemoussel
Installation: Directement sur ma machine
Logiciels: LM Studio
Performance: Super rapide - peut traiter des entrées de grande taille très rapidement, potentiellement plus vite qu'avec une API
Cédric Trachsel
Installation: Directement sur ma machine
Logiciels: ollama et openwebui les deux dockerisé
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Eric Burel - LBKE
Installation: Directement sur ma machine
Logiciels: Open WebUI
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0