Partagé le 24/09/2025

Découvrez le modèle GPT-OSS 20B du CNRS pour une IA puissante directement sur vo

Installation décrite par : CNRS

Résumé de cette installation par l'IA

Cette installation LLM est déployée localement sur une machine personnelle équipée d'un GPU Apple Metal, utilisant le framework Ollama. Elle intègre deux modèles principaux : gpt-oss:20b et llama3.2-vision, sans entraînement de modèles personnalisés. L'infrastructure repose sur un ordinateur portable haut de gamme, d'une valeur estimée entre 1000 et 3000 euros, offrant des performances rapides (plus de 40 tokens par seconde), permettant des interactions en temps réel. L'installation est conçue pour une utilisation exclusive, sans dépendance à un fournisseur externe ou à un service cloud, garantissant ainsi une souveraineté totale des données.

L'installation est utilisée à des fins professionnelles au sein du CNRS, où elle joue un rôle central dans le traitement de données confidentielles. Son coût opérationnel est nul, sans maintenance particulière requise. Elle répond à des besoins spécifiques liés à la manipulation de données sensibles et à la formation technique, tout en évitant les risques liés aux solutions hébergées. L'objectif principal est de permettre une utilisation flexible et sécurisée des modèles de langage, en alignement avec les exigences de confidentialité et d'autonomie de l'organisation.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
gpt-oss:20b
Autres modèles utilisés
llama3.2-vision
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
Ollama
Cartes graphiques
Oui sur machine personnelle
Détails de la machine
Apple
Détails GPU et VRAM
Apple Metal

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Raison de cette installation
Pour bidouiller et me former • Car je manipule des données confidentielles • Pour garantir la souveraineté de mes données
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
1000-3000€ - équivalent d'un ordinateur portable onéreux avec une pomme dessus
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

YANN DELCAMBRE LATMOS

llama3.1

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: Python maison pour optimiser mon rag

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Eric Burel - LBKE

Mistral

Installation: Directement sur ma machine

Logiciels: Open WebUI

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

Charles Bonnissent

gpt-oss-120b

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: Openwebui, sst/opencode

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel