Découvrez gpt-oss : L'IA puissante directement sur votre machine pour des répons
Résumé de cette installation par l'IA
Cette installation d'un modèle de langage local (LLM) repose sur une configuration matérielle dédiée, incluant une carte graphique NVIDIA RTX 4090, un processeur AMD et une carte mère ASUS. Le système utilise le logiciel Ollama pour l'exécution des modèles, avec une interface Open-webui et l'outil Continue pour l'interaction. Les modèles déployés sont principalement gpt-oss, accompagné de Llama et Deepseekr1, tous pré-entraînés sans formation supplémentaire. L'installation est hébergée directement sur une machine personnelle équipée d'un GPU, ce qui permet des performances rapides, dépassant 40 tokens par seconde, avec un temps de réponse perçu comme temps réel.
L'installation est principalement utilisée à des fins personnelles et éducatives, avec une priorité accordée à la confidentialité des données. Elle permet de manipuler des informations sensibles sans recourir à des services externes, garantissant ainsi une souveraineté totale sur les données traitées. Bien que non optimisée pour un usage professionnel, elle offre une solution autonome et économique, avec des coûts initiaux estimés entre 1000 et 3000 euros, sans frais de maintenance ultérieurs. L'objectif principal est d'expérimenter et de se former, tout en évitant la dépendance à des infrastructures cloud.
- Type d'installation
- Directement sur ma machineSur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)Sur un cloud (je ne gère pas le matériel ou je le loue)
- Modèle LLM principal
- gpt-oss
- Autres modèles utilisés
- llama, deepseekr1
- Entraînement de modèles
- Oui j'entraîne mes propres modèlesNon, j'utilise des modèles existantsLes deux
- Logiciels et SaaS utilisés
- Ollama, Open-webui, continue
- Cartes graphiques
- Oui sur machine personnelle
- Détails de la machine
- ASUS(mobo)+MSI(gpu)+AMD(cpu)
- Détails GPU et VRAM
- NVIDIA RTX 4090
- Utilisation de l'installation
- Juste pour moi
- Performances obtenues
- Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
- Raison de cette installation
- Pour bidouiller et me former • Car je manipule des données confidentielles • Je préfère ne pas partager mes données personnelles ou d'entreprise même non confidentielles • Pour garantir la souveraineté de mes données • Parce que je le peux
- Usage professionnel
- Oui elle répond à des besoins professionnels concrets à mon échelleOui elle est pleinement fonctionnellePartiellement elle nécessite encore du travailNon elle n'est pas vraiment fonctionnelleJe ne sais pas
- Coût d'installation
- 1000-3000€ - équivalent d'un ordinateur portable onéreux avec une pomme dessus
- Coût d'opération quotidien
- 0 - pas de maintenance particulière
Configuration générale
Infrastructure et matériel
Usage et performances
Coûts
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0
Autres installations de la communauté
Découvrez quelques autres configurations partagées par la communauté LLM française.
Voir toutes les installationsCédric Trachsel
Installation: Directement sur ma machine
Logiciels: ollama et openwebui les deux dockerisé
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Patrice Cosson
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: OpenWebUI Ollama
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
CNRS
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel