Découvrez gpt-oss-20b : Un LLM Puissant Installé Localement par Christian Lemous
Résumé de cette installation par l'IA
Cette installation LLM est déployée sur une machine personnelle équipée d'une carte graphique NVIDIA 3090 avec 24 Go de VRAM, 16 Go de RAM DDR4 et un processeur non spécifié. Le système utilise le logiciel LM Studio pour héberger deux modèles : gpt-oss-20b comme modèle principal et Qwen comme modèle secondaire. L'installation est réalisée directement sur la machine, sans recours à un fournisseur cloud ou externe, et fonctionne en réseau local. La configuration est conçue pour une utilisation personnelle, avec une puissance suffisante pour traiter des entrées de grande taille rapidement, bien que l'arrêt nocturne limite son fonctionnement continu.
L'installation permet une utilisation à la fois personnelle et professionnelle, répondant à des besoins concrets à petite échelle. Les performances sont jugées rapides, potentiellement supérieures à celles d'une API commerciale, grâce à la puissance de calcul locale. Les coûts initiaux s'élèvent entre 500 et 1000 euros, correspondant principalement à l'achat de la carte graphique, tandis que les coûts opérationnels restent faibles, estimés entre 0 et 100 euros par mois, principalement liés à la consommation électrique. L'objectif principal est l'expérimentation et la formation, avec la possibilité d'utiliser des modèles sans restrictions.
- Type d'installation
- Directement sur ma machineSur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)Sur un cloud (je ne gère pas le matériel ou je le loue)
- Modèle LLM principal
- gpt-oss-20b
- Autres modèles utilisés
- Qwen
- Entraînement de modèles
- Oui j'entraîne mes propres modèlesNon, j'utilise des modèles existantsLes deux
- Logiciels et SaaS utilisés
- LM Studio
- Cartes graphiques
- Oui sur machine personnelle
- Détails de la machine
- Constuction personnel
- Détails GPU et VRAM
- NVIDIA 3090 (24 Go de VRAM)
- Autres précisions matériel
- Machine indépendante sur réseau local avec 16Go de ram ddr4
- Utilisation de l'installation
- Juste pour moi
- Performances obtenues
- Super rapide - peut traiter des entrées de grande taille très rapidement, potentiellement plus vite qu'avec une API
- Raison de cette installation
- Pour bidouiller et me former • Parce que je le peux • Pour utiliser des modèles débridés
- Usage professionnel
- Oui elle répond à des besoins professionnels concrets à mon échelleOui elle est pleinement fonctionnellePartiellement elle nécessite encore du travailNon elle n'est pas vraiment fonctionnelleJe ne sais pas
- Coût d'installation
- 500-1000€ - équivalent d'un ordinateur portable simple ou d'une carte graphique de gaming
- Coût d'opération quotidien
- 0-100€ / mois
- Précisions sur les coûts
- Les coûts mois sont dus à la consommation d'électricité. Elle est arrêtée la nuit.
Configuration générale
Infrastructure et matériel
Usage et performances
Coûts
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0
Autres installations de la communauté
Découvrez quelques autres configurations partagées par la communauté LLM française.
Voir toutes les installationsEric Burel - LBKE
Installation: Directement sur ma machine
Logiciels: Open WebUI
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
Cédric Trachsel
Installation: Directement sur ma machine
Logiciels: ollama et openwebui les deux dockerisé
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: OpenWebUI
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel