Découvrez le modèle GPT-OSS 20B du CNRS pour une IA puissante directement sur vo
Résumé de cette installation par l'IA
Cette installation LLM est déployée localement sur une machine personnelle équipée d'un GPU Apple Metal, utilisant le framework Ollama. Elle intègre deux modèles principaux : gpt-oss:20b et llama3.2-vision, sans entraînement de modèles personnalisés. L'infrastructure repose sur un ordinateur portable haut de gamme, d'une valeur estimée entre 1000 et 3000 euros, offrant des performances rapides (plus de 40 tokens par seconde), permettant des interactions en temps réel. L'installation est conçue pour une utilisation exclusive, sans dépendance à un fournisseur externe ou à un service cloud, garantissant ainsi une souveraineté totale des données.
L'installation est utilisée à des fins professionnelles au sein du CNRS, où elle joue un rôle central dans le traitement de données confidentielles. Son coût opérationnel est nul, sans maintenance particulière requise. Elle répond à des besoins spécifiques liés à la manipulation de données sensibles et à la formation technique, tout en évitant les risques liés aux solutions hébergées. L'objectif principal est de permettre une utilisation flexible et sécurisée des modèles de langage, en alignement avec les exigences de confidentialité et d'autonomie de l'organisation.
- Type d'installation
- Directement sur ma machineSur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)Sur un cloud (je ne gère pas le matériel ou je le loue)
- Modèle LLM principal
- gpt-oss:20b
- Autres modèles utilisés
- llama3.2-vision
- Entraînement de modèles
- Oui j'entraîne mes propres modèlesNon, j'utilise des modèles existantsLes deux
- Logiciels et SaaS utilisés
- Ollama
- Cartes graphiques
- Oui sur machine personnelle
- Détails de la machine
- Apple
- Détails GPU et VRAM
- Apple Metal
- Utilisation de l'installation
- Juste pour moi
- Performances obtenues
- Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
- Raison de cette installation
- Pour bidouiller et me former • Car je manipule des données confidentielles • Pour garantir la souveraineté de mes données
- Usage professionnel
- Oui elle répond à des besoins professionnels concrets à mon échelleOui elle est pleinement fonctionnellePartiellement elle nécessite encore du travailNon elle n'est pas vraiment fonctionnelleJe ne sais pas
- Coût d'installation
- 1000-3000€ - équivalent d'un ordinateur portable onéreux avec une pomme dessus
- Coût d'opération quotidien
- 0 - pas de maintenance particulière
Configuration générale
Infrastructure et matériel
Usage et performances
Coûts
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0
Autres installations de la communauté
Découvrez quelques autres configurations partagées par la communauté LLM française.
Voir toutes les installationsYANN DELCAMBRE LATMOS
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: Python maison pour optimiser mon rag
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Eric Burel - LBKE
Installation: Directement sur ma machine
Logiciels: Open WebUI
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
Charles Bonnissent
Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)
Logiciels: Openwebui, sst/opencode
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel