Partagé le 30/09/2025

Découvrez l'installation locale de Gemma3:270m par Patrice Cosson - Performances

Installation décrite par : Patrice Cosson

Résumé de cette installation par l'IA

Cette installation LLM est déployée sur un serveur local hébergé par un prestataire IT ou sur site, utilisant un matériel payé par l'utilisateur. L'infrastructure repose sur un TuringPi 2 équipé de modules Turing RK1 avec 16 Go et 8 Go de RAM, fonctionnant sans GPU. Le système exploite des modèles open source, dont gemma3:270m comme modèle principal, ainsi que deepseek-r1:1.5b, Qwen3-4B-Instruct et qwen3:4b. L'installation utilise OpenWebUI Ollama pour l'interface et ne nécessite aucune formation de modèles, se limitant à l'utilisation de versions pré-entraînées. L'absence de GPU entraîne des performances lentes, avec un débit inférieur à 10 tokens par seconde, obligeant les modèles à fonctionner en arrière-plan.

L'installation est principalement utilisée à des fins personnelles, sans objectif professionnel. Elle sert d'outil d'apprentissage et d'expérimentation, avec un coût d'installation et de fonctionnement nul, reposant uniquement sur des logiciels open source. Les performances limitées en font un système adapté à des tâches mineures ou à un usage occasionnel, sans exigence de réactivité élevée. L'utilisateur, Patrice Cosson, n'a pas partagé de détails supplémentaires sur son utilisation ou ses résultats.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
gemma3:270m
Autres modèles utilisés
deepseek-r1:1.5b hf.co/unsloth/Qwen3-4B-Instruct-2507-GGUF:latest qwen3:4b
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
OpenWebUI Ollama
Cartes graphiques
Aucune - je n'utilise que le CPU
Détails de la machine
TuringPi 2 / Modules Turing RK1 16 et 8 Go
Détails GPU et VRAM
N/A
Rack/Serveurs
N/A

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond
Raison de cette installation
Pour bidouiller et me former
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
0 - juste l'installation d'outils open source, pas d'achat supplémentaire
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

LLM Maison (anonyme)

Installation: Directement sur ma machine

Logiciels: OpenWebUI

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

gpt-oss

Installation: Directement sur ma machine

Logiciels: Ollama, Open-webui, continue

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

LLM Maison (anonyme)

mistral-small

Installation: Directement sur ma machine

Logiciels: Ollama

Performance: Moyen (moins de 40 tokens/s) - on peut attendre la réponse du modèle ou le laisser tourner