Déployez Mistral sur votre machine avec Eric Burel - LBKE pour une IA performant
Résumé de cette installation par l'IA
Cette installation d'un modèle de langage (LLM) repose sur une configuration matérielle et logicielle minimaliste. Elle est déployée directement sur une machine Dell Latitude, sans GPU, en utilisant uniquement le CPU pour l'exécution. Le logiciel Open WebUI sert d'interface, tandis que le modèle principal utilisé est Mistral. L'installation n'inclut aucun modèle supplémentaire ni entraînement personnalisé, se limitant à l'utilisation de modèles préexistants. L'absence de GPU entraîne des performances lentes, avec un débit inférieur à 10 tokens par seconde, nécessitant une exécution en arrière-plan. L'ensemble du système repose sur des outils open source, sans coût d'installation ni de maintenance.
L'installation est principalement utilisée à des fins personnelles et éducatives, permettant à l'utilisateur de manipuler des données confidentielles sans recourir à des services externes. Bien que fonctionnelle, la configuration n'est pas optimisée pour un usage professionnel en raison de ses limitations techniques. L'objectif principal est l'expérimentation et l'apprentissage, avec une priorité donnée à la confidentialité des données. La solution reste basique, sans personnalisation avancée ni intégration avec des services cloud ou des fournisseurs externes.
- Type d'installation
- Directement sur ma machineSur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)Sur un cloud (je ne gère pas le matériel ou je le loue)
- Modèle LLM principal
- Mistral
- Entraînement de modèles
- Oui j'entraîne mes propres modèlesNon, j'utilise des modèles existantsLes deux
- Logiciels et SaaS utilisés
- Open WebUI
- Cartes graphiques
- Aucune - je n'utilise que le CPU
- Détails de la machine
- Dell latitude
- Détails GPU et VRAM
- Aucune
- Utilisation de l'installation
- Juste pour moi
- Performances obtenues
- Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
- Raison de cette installation
- Pour bidouiller et me former • Car je manipule des données confidentielles
- Usage professionnel
- Oui elle répond à des besoins professionnels concrets à mon échelleOui elle est pleinement fonctionnellePartiellement elle nécessite encore du travailNon elle n'est pas vraiment fonctionnelleJe ne sais pas
- Coût d'installation
- 0 - juste l'installation d'outils open source, pas d'achat supplémentaire
- Coût d'opération quotidien
- 0 - pas de maintenance particulière
Configuration générale
Infrastructure et matériel
Usage et performances
Coûts
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0
Autres installations de la communauté
Découvrez quelques autres configurations partagées par la communauté LLM française.
Voir toutes les installationsLLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner
Charles Bonnissent
Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)
Logiciels: Openwebui, sst/opencode
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
LLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama, Open-webui, continue
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel