Partagé le 19/09/2025

Découvrez gpt-oss : L'IA puissante directement sur votre machine pour des répons

Installation décrite par : Anonyme

Résumé de cette installation par l'IA

Cette installation d'un modèle de langage local (LLM) repose sur une configuration matérielle dédiée, incluant une carte graphique NVIDIA RTX 4090, un processeur AMD et une carte mère ASUS. Le système utilise le logiciel Ollama pour l'exécution des modèles, avec une interface Open-webui et l'outil Continue pour l'interaction. Les modèles déployés sont principalement gpt-oss, accompagné de Llama et Deepseekr1, tous pré-entraînés sans formation supplémentaire. L'installation est hébergée directement sur une machine personnelle équipée d'un GPU, ce qui permet des performances rapides, dépassant 40 tokens par seconde, avec un temps de réponse perçu comme temps réel.

L'installation est principalement utilisée à des fins personnelles et éducatives, avec une priorité accordée à la confidentialité des données. Elle permet de manipuler des informations sensibles sans recourir à des services externes, garantissant ainsi une souveraineté totale sur les données traitées. Bien que non optimisée pour un usage professionnel, elle offre une solution autonome et économique, avec des coûts initiaux estimés entre 1000 et 3000 euros, sans frais de maintenance ultérieurs. L'objectif principal est d'expérimenter et de se former, tout en évitant la dépendance à des infrastructures cloud.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
gpt-oss
Autres modèles utilisés
llama, deepseekr1
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
Ollama, Open-webui, continue
Cartes graphiques
Oui sur machine personnelle
Détails de la machine
ASUS(mobo)+MSI(gpu)+AMD(cpu)
Détails GPU et VRAM
NVIDIA RTX 4090

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Raison de cette installation
Pour bidouiller et me former • Car je manipule des données confidentielles • Je préfère ne pas partager mes données personnelles ou d'entreprise même non confidentielles • Pour garantir la souveraineté de mes données • Parce que je le peux
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
1000-3000€ - équivalent d'un ordinateur portable onéreux avec une pomme dessus
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

Cédric Trachsel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: ollama et openwebui les deux dockerisé

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

Patrice Cosson

gemma3:270m

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: OpenWebUI Ollama

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

CNRS

gpt-oss:20b

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel