Partagé le 23/09/2025

Découvrez un LLM Puissant Installé Directement sur Votre Machine

Installation décrite par : Anonyme

Résumé de cette installation par l'IA

Cette installation d'un LLM (Large Language Model) est réalisée directement sur une machine personnelle, un MacBook Air équipé d'un processeur M2 et de 24 Go de mémoire graphique. L'utilisateur a opté pour OpenWebUI comme interface logicielle, sans recourir à un fournisseur externe ou à un service cloud. Le système exploite des modèles pré-entraînés, sans formation ou personnalisation supplémentaire. La configuration, entièrement basée sur des outils open source, ne génère aucun coût d'installation ou de fonctionnement. L'équipement dispose d'une carte graphique intégrée, ce qui permet des performances rapides, avec un débit de plus de 40 tokens par seconde, offrant une interaction en temps réel.

L'installation est principalement utilisée à des fins personnelles, notamment pour l'expérimentation et l'apprentissage. L'utilisateur privilégie cette solution pour éviter de partager des données, qu'elles soient personnelles ou professionnelles, même non sensibles. Bien que fonctionnelle, l'installation n'est pas destinée à un usage professionnel, son objectif étant avant tout l'exploration technique et l'autonomie. Aucun coût supplémentaire n'est engagé, que ce soit pour l'achat de matériel ou la maintenance, ce qui en fait une solution économique et autonome.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
OpenWebUI
Cartes graphiques
Oui sur machine personnelle
Détails de la machine
MacBook Air
Détails GPU et VRAM
M2 - 24 Go

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Raison de cette installation
Pour bidouiller et me former • Je préfère ne pas partager mes données personnelles ou d'entreprise même non confidentielles
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
0 - juste l'installation d'outils open source, pas d'achat supplémentaire
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

LLM Maison (anonyme)

mistral 7B

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Eric Burel - LBKE

Mistral

Installation: Directement sur ma machine

Logiciels: Open WebUI

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

Patrice Cosson

gemma3:270m

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: OpenWebUI Ollama

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond