Partagé le 17/09/2025

Découvrez gpt-oss-20b : Un LLM Puissant Installé Localement par Christian Lemous

Installation décrite par : Christian Lemoussel

Résumé de cette installation par l'IA

Cette installation LLM est déployée sur une machine personnelle équipée d'une carte graphique NVIDIA 3090 avec 24 Go de VRAM, 16 Go de RAM DDR4 et un processeur non spécifié. Le système utilise le logiciel LM Studio pour héberger deux modèles : gpt-oss-20b comme modèle principal et Qwen comme modèle secondaire. L'installation est réalisée directement sur la machine, sans recours à un fournisseur cloud ou externe, et fonctionne en réseau local. La configuration est conçue pour une utilisation personnelle, avec une puissance suffisante pour traiter des entrées de grande taille rapidement, bien que l'arrêt nocturne limite son fonctionnement continu.

L'installation permet une utilisation à la fois personnelle et professionnelle, répondant à des besoins concrets à petite échelle. Les performances sont jugées rapides, potentiellement supérieures à celles d'une API commerciale, grâce à la puissance de calcul locale. Les coûts initiaux s'élèvent entre 500 et 1000 euros, correspondant principalement à l'achat de la carte graphique, tandis que les coûts opérationnels restent faibles, estimés entre 0 et 100 euros par mois, principalement liés à la consommation électrique. L'objectif principal est l'expérimentation et la formation, avec la possibilité d'utiliser des modèles sans restrictions.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
gpt-oss-20b
Autres modèles utilisés
Qwen
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
LM Studio
Cartes graphiques
Oui sur machine personnelle
Détails de la machine
Constuction personnel
Détails GPU et VRAM
NVIDIA 3090 (24 Go de VRAM)
Autres précisions matériel
Machine indépendante sur réseau local avec 16Go de ram ddr4

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Super rapide - peut traiter des entrées de grande taille très rapidement, potentiellement plus vite qu'avec une API
Raison de cette installation
Pour bidouiller et me former • Parce que je le peux • Pour utiliser des modèles débridés
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
500-1000€ - équivalent d'un ordinateur portable simple ou d'une carte graphique de gaming
Coût d'opération quotidien
0-100€ / mois
Précisions sur les coûts
Les coûts mois sont dus à la consommation d'électricité. Elle est arrêtée la nuit.

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

Eric Burel - LBKE

Mistral

Installation: Directement sur ma machine

Logiciels: Open WebUI

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

Cédric Trachsel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: ollama et openwebui les deux dockerisé

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

LLM Maison (anonyme)

Installation: Directement sur ma machine

Logiciels: OpenWebUI

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel