Découvrez un LLM Puissant Installé Directement sur Votre Machine
Résumé de cette installation par l'IA
Cette installation d'un LLM (Large Language Model) est réalisée directement sur une machine personnelle, un MacBook Air équipé d'un processeur M2 et de 24 Go de mémoire graphique. L'utilisateur a opté pour OpenWebUI comme interface logicielle, sans recourir à un fournisseur externe ou à un service cloud. Le système exploite des modèles pré-entraînés, sans formation ou personnalisation supplémentaire. La configuration, entièrement basée sur des outils open source, ne génère aucun coût d'installation ou de fonctionnement. L'équipement dispose d'une carte graphique intégrée, ce qui permet des performances rapides, avec un débit de plus de 40 tokens par seconde, offrant une interaction en temps réel.
L'installation est principalement utilisée à des fins personnelles, notamment pour l'expérimentation et l'apprentissage. L'utilisateur privilégie cette solution pour éviter de partager des données, qu'elles soient personnelles ou professionnelles, même non sensibles. Bien que fonctionnelle, l'installation n'est pas destinée à un usage professionnel, son objectif étant avant tout l'exploration technique et l'autonomie. Aucun coût supplémentaire n'est engagé, que ce soit pour l'achat de matériel ou la maintenance, ce qui en fait une solution économique et autonome.
- Type d'installation
- Directement sur ma machineSur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)Sur un cloud (je ne gère pas le matériel ou je le loue)
- Entraînement de modèles
- Oui j'entraîne mes propres modèlesNon, j'utilise des modèles existantsLes deux
- Logiciels et SaaS utilisés
- OpenWebUI
- Cartes graphiques
- Oui sur machine personnelle
- Détails de la machine
- MacBook Air
- Détails GPU et VRAM
- M2 - 24 Go
- Utilisation de l'installation
- Juste pour moi
- Performances obtenues
- Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
- Raison de cette installation
- Pour bidouiller et me former • Je préfère ne pas partager mes données personnelles ou d'entreprise même non confidentielles
- Usage professionnel
- Oui elle répond à des besoins professionnels concrets à mon échelleOui elle est pleinement fonctionnellePartiellement elle nécessite encore du travailNon elle n'est pas vraiment fonctionnelleJe ne sais pas
- Coût d'installation
- 0 - juste l'installation d'outils open source, pas d'achat supplémentaire
- Coût d'opération quotidien
- 0 - pas de maintenance particulière
Configuration générale
Infrastructure et matériel
Usage et performances
Coûts
Contribuez au projet LLM Maison 2025
Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.
Répondre au questionnaireToutes les réponses sont repartagées publiquement sous licence libre permissive CC-0
Autres installations de la communauté
Découvrez quelques autres configurations partagées par la communauté LLM française.
Voir toutes les installationsLLM Maison (anonyme)
Installation: Directement sur ma machine
Logiciels: Ollama
Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Eric Burel - LBKE
Installation: Directement sur ma machine
Logiciels: Open WebUI
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
Patrice Cosson
Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Logiciels: OpenWebUI Ollama
Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond