Partagé le 01/09/2025

Déployez Mistral sur votre machine avec Eric Burel - LBKE pour une IA performant

Installation décrite par : Eric Burel - LBKE

Résumé de cette installation par l'IA

Cette installation d'un modèle de langage (LLM) repose sur une configuration matérielle et logicielle minimaliste. Elle est déployée directement sur une machine Dell Latitude, sans GPU, en utilisant uniquement le CPU pour l'exécution. Le logiciel Open WebUI sert d'interface, tandis que le modèle principal utilisé est Mistral. L'installation n'inclut aucun modèle supplémentaire ni entraînement personnalisé, se limitant à l'utilisation de modèles préexistants. L'absence de GPU entraîne des performances lentes, avec un débit inférieur à 10 tokens par seconde, nécessitant une exécution en arrière-plan. L'ensemble du système repose sur des outils open source, sans coût d'installation ni de maintenance.

L'installation est principalement utilisée à des fins personnelles et éducatives, permettant à l'utilisateur de manipuler des données confidentielles sans recourir à des services externes. Bien que fonctionnelle, la configuration n'est pas optimisée pour un usage professionnel en raison de ses limitations techniques. L'objectif principal est l'expérimentation et l'apprentissage, avec une priorité donnée à la confidentialité des données. La solution reste basique, sans personnalisation avancée ni intégration avec des services cloud ou des fournisseurs externes.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
Mistral
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
Open WebUI
Cartes graphiques
Aucune - je n'utilise que le CPU
Détails de la machine
Dell latitude
Détails GPU et VRAM
Aucune

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
Raison de cette installation
Pour bidouiller et me former • Car je manipule des données confidentielles
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
0 - juste l'installation d'outils open source, pas d'achat supplémentaire
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

LLM Maison (anonyme)

mistral-small

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner

Charles Bonnissent

gpt-oss-120b

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: Openwebui, sst/opencode

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

gpt-oss

Installation: Directement sur ma machine

Logiciels: Ollama, Open-webui, continue

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel