Partagé le 22/09/2025

Déploiement Local d'un LLM sur Serveur Hébergé par EBII s.a.s.u.

Installation décrite par : EBII s.a.s.u.

Résumé de cette installation par l'IA

Cette installation LLM est déployée sur un serveur hébergé localement, avec un Mac Studio équipé de 512 Go de mémoire. L'infrastructure utilise des logiciels tels que LMStudio et VLLM, ainsi qu'un développement personnalisé. Aucun modèle n'est entraîné sur place, mais plusieurs options sont envisagées, notamment Qwen3, Devstral, GML4.5, Apertus et Lucie. L'installation repose sur une configuration matérielle dédiée, avec un budget compris entre 3 000 et 10 000 euros, couvrant l'achat et la maintenance du matériel. Les performances sont estimées comme moyennes, avec un débit inférieur à 40 tokens par seconde, ce qui implique des temps de réponse plus longs. L'objectif principal est d'assurer la souveraineté des données et de proposer des solutions IA hors ligne, tout en servant des besoins professionnels concrets.

Cette installation permet d'expérimenter et de se former aux technologies LLM tout en garantissant un contrôle total sur les données traitées. Elle est utilisée à la fois pour des projets personnels et professionnels, notamment pour développer des produits IA autonomes. Bien que les coûts d'exploitation soient nuls, l'investissement initial reste significatif, justifié par la nécessité d'une infrastructure locale et sécurisée. Les résultats obtenus répondent aux attentes en termes de souveraineté et de fonctionnalités, malgré des performances limitées par le matériel disponible. L'installation s'inscrit dans une démarche de maîtrise technique et d'indépendance vis-à-vis des solutions cloud.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
En cours de selection
Autres modèles utilisés
qwen3 / devstral /GML4.5/ Apertus / Lucie
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
LmStudio/ Vllm / un dev perso
Cartes graphiques
Mac Studio 512 Go
Détails de la machine
Apple
Détails GPU et VRAM
512 Go

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Raison de cette installation
Pour bidouiller et me former • Pour garantir la souveraineté de mes données • Propsoer des produits IA Offline
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
3000-10000€ - budget TPE/PME, rack de cartes graphiques
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

LLM Maison (anonyme)

Installation: Directement sur ma machine

Logiciels: OpenWebUI

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Eric Burel - LBKE

Mistral

Installation: Directement sur ma machine

Logiciels: Open WebUI

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

Cédric Trachsel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: ollama et openwebui les deux dockerisé

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner