Partagé le 19/09/2025

Découvrez Mistral-Small : LLM Puissant et Léger pour une IA Locale Optimale

Installation décrite par : Anonyme

Résumé de cette installation par l'IA

Cette installation repose sur un mini-PC personnalisé, un Zotac Magnus, équipé d'une carte graphique RTX 4060 Ti avec 16 Go de VRAM. Le système utilise le logiciel Ollama pour héberger des modèles de langage locaux, avec le modèle Mistral Small comme référence, complété par d'autres options comme Mistral Nemo, GPT-OSS et Phi4. L'installation est réalisée directement sur la machine personnelle, sans recours à un fournisseur externe ou cloud. La configuration matérielle permet une exécution locale des modèles, avec une performance évaluée comme moyenne, générant moins de 40 tokens par seconde. Le coût initial se situe entre 1000 et 3000 euros, équivalent à un ordinateur portable haut de gamme, tandis que les coûts opérationnels sont nuls, sans maintenance spécifique requise.

Cette installation répond à des besoins professionnels et personnels, notamment pour manipuler des données confidentielles et garantir leur souveraineté. Elle est utilisée par un petit groupe de 1 à 5 personnes, principalement pour des tâches de formation et d'expérimentation. La performance, bien que limitée, permet une utilisation interactive, avec des temps de réponse acceptables pour des échanges simples ou des traitements en arrière-plan. L'absence de frais récurrents et la maîtrise totale des données en font une solution adaptée à des usages sensibles ou autonomes.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
mistral-small
Autres modèles utilisés
mistral-nemo, gpt-oss, phi4
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
Ollama
Cartes graphiques
Oui sur machine personnelle
Détails de la machine
Zotac Magnus (Mini PC Monté maison)
Détails GPU et VRAM
RTX4060Ti 16GoVRAM

Usage et performances

Utilisation de l'installation
1-5 personnes
Performances obtenues
Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Raison de cette installation
Pour bidouiller et me former • Car je manipule des données confidentielles • Pour garantir la souveraineté de mes données
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
1000-3000€ - équivalent d'un ordinateur portable onéreux avec une pomme dessus
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

LLM Maison (anonyme)

gpt-oss

Installation: Directement sur ma machine

Logiciels: Ollama, Open-webui, continue

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

Qwen3-Coder-30B-A3B-Instruct

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: vLLM

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Cédric Trachsel

gpt-oss-20b

Installation: Directement sur ma machine

Logiciels: ollama et openwebui les deux dockerisé

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner