Toutes les installations LLM de la communauté

Découvrez l'intégralité des configurations LLM partagées par la communauté francophone. Matériel, logiciels, performances et coûts détaillés pour chaque installation.

Découvrez 16 installations LLM en auto-hébergement documentées par la communauté française. Chaque installation est une source précieuse d'informations sur les choix technologiques, les performances obtenues et les coûts réels de l'auto-hébergement d'intelligences artificielles génératives (LLM).

Que vous soyez débutant ou expert, ces retours d'expérience vous aideront à investir intelligement dans votre infrastructure LLM.

L'Agence LLM remercie les contributeurs qui partagent leurs expériences et rendent cette cartographie collaborative possible. Cette démarche contribue à une IA française plus souveraine et efficace.

16 installations documentées

Cliquez sur une installation pour découvrir tous les détails techniques, les performances et l'expérience partagée par son utilisateur.

Patrice Cosson

gemma3:270m

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: OpenWebUI Ollama

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

YANN DELCAMBRE LATMOS

llama3.1

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: Python maison pour optimiser mon rag

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

CNRS

gpt-oss:20b

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

Installation: Directement sur ma machine

Logiciels: OpenWebUI

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

Qwen3-Coder-30B-A3B-Instruct

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: vLLM

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

EBII s.a.s.u.

En cours de selection

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: LmStudio/ Vllm / un dev perso

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

LLM Maison (anonyme)

Mistral 7B

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

llama2-uncensored

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: ollama open webui

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

Charles Bonnissent

gpt-oss-120b

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: Openwebui, sst/opencode

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

gpt-oss

Installation: Directement sur ma machine

Logiciels: Ollama, Open-webui, continue

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

mistral-small

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

LLM Maison (anonyme)

mistral 7B

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

qwen:3b

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: Openweb UI

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Christian Lemoussel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: LM Studio

Performance: Super rapide - peut traiter des entrées de grande taille très rapidement, potentiellement plus vite qu'avec une API

Cédric Trachsel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: ollama et openwebui les deux dockerisé

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

Eric Burel - LBKE

Mistral

Installation: Directement sur ma machine

Logiciels: Open WebUI

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0