Partagé le 18/09/2025

Optimisation d'un LLM Qwen-3B sur Serveur Local : Performance et Autonomie

Installation décrite par : Anonyme

Résumé de cette installation par l'IA

Cette installation repose sur un serveur local hébergé sur site ou chez un prestataire IT, équipé d'un processeur Rizen 8845HS et de 16 Go de RAM. L'installation utilise uniquement le CPU, sans carte graphique, et fonctionne avec le modèle Qwen-3B via l'interface Openweb UI. L'utilisateur n'entraîne pas de modèles personnalisés et se limite aux versions préexistantes. Le coût initial, compris entre 100 et 500 euros, correspond à l'achat du matériel nécessaire, tandis que les coûts d'exploitation sont nuls, sans maintenance particulière requise.

L'installation permet d'obtenir des performances rapides, avec un débit supérieur à 40 tokens par seconde, offrant une sensation de temps réel dans les interactions. L'utilisateur l'emploie à des fins personnelles, notamment pour des tâches mineures ou pour se former, tout en garantissant la souveraineté et la confidentialité de ses données. L'absence de partage avec des fournisseurs externes ou des services cloud répond à une volonté de maîtrise totale de l'infrastructure.

Configuration générale

Type d'installation
Directement sur ma machine
Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)
Sur un cloud (je ne gère pas le matériel ou je le loue)
Modèle LLM principal
qwen:3b
Entraînement de modèles
Oui j'entraîne mes propres modèles
Non, j'utilise des modèles existants
Les deux

Infrastructure et matériel

Logiciels et SaaS utilisés
Openweb UI
Cartes graphiques
Aucune - je n'utilise que le CPU
Détails de la machine
Rizen 8845HS
Autres précisions matériel
16Go Ram

Usage et performances

Utilisation de l'installation
Juste pour moi
Performances obtenues
Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel
Raison de cette installation
Pour bidouiller et me former • Je préfère ne pas partager mes données personnelles ou d'entreprise même non confidentielles • Pour garantir la souveraineté de mes données • Parce que je le peux
Usage professionnel
Oui elle répond à des besoins professionnels concrets à mon échelle
Oui elle est pleinement fonctionnelle
Partiellement elle nécessite encore du travail
Non elle n'est pas vraiment fonctionnelle
Je ne sais pas

Coûts

Coût d'installation
100-500€ - équivalent d'une carte graphique simple
Coût d'opération quotidien
0 - pas de maintenance particulière

Contribuez au projet LLM Maison 2025

Partagez votre expérience avec votre installation LLM et aidez la communauté française à mieux comprendre l'écosystème local.

Répondre au questionnaire

Toutes les réponses sont repartagées publiquement sous licence libre permissive CC-0

Autres installations de la communauté

Découvrez quelques autres configurations partagées par la communauté LLM française.

Voir toutes les installations

Eric Burel - LBKE

Mistral

Installation: Directement sur ma machine

Logiciels: Open WebUI

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond

Charles Bonnissent

gpt-oss-120b

Installation: Sur un cloud (je ne gère pas le matériel ou je le loue)

Logiciels: Openwebui, sst/opencode

Performance: Rapide (plus de 40 tokens/s) - les réponses ont un ressenti temps réel

Patrice Cosson

gemma3:270m

Installation: Sur un serveur hébergé localement (je paie pour le matériel avec une installation sur site ou chez un prestataire IT local)

Logiciels: OpenWebUI Ollama

Performance: Lent (moins de 10 token/s) - le modèle doit tourner en toile de fond