star-1
star-2
icon-trophyicon-trophy-dark
icon-locationicon-location-dark
icon-globeicon-globe-dark
icon-crownicon-crown-dark
icon-diamondicon-diamond-dark
icon-chaticon-chat-dark
ia

Formation Créer son IA Locale : Installer des LLM sur ses propres serveurs

Cette formation aborde le déploiement de Large Language Models (LLM) open source sur serveurs locaux. Elle couvre l'identification des prérequis matériels (GPU), la configuration d'environnements serveur, et l'interaction via API locale pour des cas d'usage comme l'assistant conversationnel interne ou l'analyse de documents confidentiels, en utilisant la quantification.

PrésentielDistanciel14 heures hOPCOFAFFranceTravailEmployeurRégionFNE Formation

Réponse sous 24h ouvrées

Ce que vous apprendrez durant
la formation Créer son IA Locale : Installer des LLM sur ses propres serveurs

Déploiement LLM sur serveur local

Installer et configurer un Large Language Model (LLM) open source sur une infrastructure serveur locale, en gérant les dépendances logicielles et matérielles.

Optimisation LLM par quantification

Appliquer des techniques de quantification pour réduire l'empreinte mémoire et améliorer les performances d'inférence des LLM sur des ressources matérielles limitées (GPU).

Interaction LLM via API locale

Développer des applications interagissant avec un LLM déployé localement, en utilisant des requêtes et réponses via une API REST pour l'inférence.

Évaluation performance LLM local

Mesurer et analyser les métriques de performance (latence, débit) d'un LLM exécuté sur des serveurs locaux, en fonction des configurations matérielles (GPU) et logicielles.

starsstar

La formation parfaite pour :

Développeurs

Intégrer des capacités de traitement du langage naturel (LLM) dans vos applications sans dépendre de services cloud externes, en maîtrisant le déploiement local et l'interaction via API.

Administrateurs systèmes

Gérer et optimiser l'infrastructure matérielle (GPU) et logicielle nécessaire à l'hébergement de Large Language Models (LLM) sur vos serveurs internes, garantissant la sécurité des données.

Ingénieurs MLOps

Mettre en place des pipelines de déploiement et de gestion de LLM open source sur des environnements on-premise, en assurant la performance et la scalabilité des modèles via la quantification.

Data Scientists

Expérimenter et valider des modèles de langage (LLM) sur des données sensibles en environnement sécurisé, sans exposition externe, et évaluer leur performance sur des ressources dédiées.

Programme de la formation
Créer son IA Locale : Installer des LLM sur ses propres serveurs

  • Introduction aux LLM locaux et prérequis matériels

    - Identifier les architectures de LLM adaptées à l'hébergement local.
    - Lister les spécifications matérielles minimales pour l'exécution de LLM (notamment GPU).
    - Comparer les avantages et inconvénients des déploiements LLM locaux vs cloud.

  • Configuration de l'environnement serveur pour LLM

    - Installer les pilotes GPU nécessaires (NVIDIA CUDA, ROCm).
    - Configurer un environnement Python virtuel pour le développement LLM.
    - Mettre en place les dépendances logicielles pour l'inférence de modèles.

  • Optimisation des modèles : Quantification et formats

    - Expliquer le principe de la **quantification** pour les LLM.
    - Appliquer des techniques de quantification à un modèle open source.
    - Choisir le format de modèle optimisé (ex: GGUF, ONNX) pour l'inférence locale.

  • Déploiement de LLM open source avec Ollama/LM Studio

    - Installer et configurer un serveur d'inférence LLM (ex: Ollama, LM Studio).
    - Télécharger et charger un **Large Language Model (LLM)** open source.
    - Vérifier le bon fonctionnement du modèle sur l'infrastructure locale.

  • Interaction avec le LLM via API locale

    - Développer des requêtes HTTP pour interagir avec l'**API locale** du LLM.
    - Interpréter les réponses JSON de l'API.
    - Intégrer le LLM dans une application Python simple.

  • Conteneurisation des LLM avec Docker

    - Créer un Dockerfile pour un environnement d'inférence LLM.
    - Construire et exécuter une image Docker contenant un LLM.
    - Gérer les volumes Docker pour la persistance des modèles et données.

  • Évaluation des performances et monitoring

    - Mesurer la latence et le débit d'**inférence** du LLM.
    - Surveiller l'utilisation des ressources (CPU, **GPU**, RAM) pendant l'exécution.
    - Identifier les goulots d'étranglement de performance sur les **serveurs locaux**.

  • Cas d'usage et sécurité des LLM locaux

    - Mettre en œuvre un assistant conversationnel interne avec un LLM local.
    - Discuter des implications de la **sécurité des données** pour les LLM hébergés localement.
    - Explorer les bases du **fine-tuning** pour adapter un LLM à des données spécifiques.

Encore des questions ?

Nous pouvons adapter le programme de la formation Créer son IA Locale : Installer des LLM sur ses propres serveurs à vos besoins. Contactez un conseiller en formation

Avatar-imageAvatar-image
Nous contacter
FAQs

Questions souvents posées

Vous avez des interrogations ? Nous avons les réponses. Consultez notre FAQ pour découvrir les questions que d’autres se posent souvent avant de se lancer dans une formation.

Vous avez encore des questions ?
  • Prérequis

    Connaissances en programmation Python. Familiarité avec les concepts de base des réseaux et des systèmes d'exploitation Linux. Notions sur les modèles de Machine Learning.

  • Un ordinateur avec au moins 16 Go de RAM. Accès à un serveur avec un GPU compatible CUDA (NVIDIA) recommandé. Installation de Docker. Compte GitHub pour accès aux modèles open source.

  • 5 tests d'évaluation sont proposés à l'apprenant en fin de formation pour connaître son niveau sur chaque compétences visées.

  • Plateforme et contenus e-learning à disposition. Test de positionnement Quizz & Evaluations

  • Nous vous recevons lors d'un rendez-vous d'information préalable gratuit et confidentiel en visioconférence pour analyser vos besoins et co-construire votre parcours personnalisé. Chaque demande s'accompagne de la remise d'une convention ou d'un contrat précisant l'ensemble des informations relatives à la formation (Tarifs, calendrier, durée, lieu…). Ce contrat/convention sera transmis électroniquement par email.

  • A partir de l'accord de prise en charge par le financeur sollicité, le bénéficiaire peut démarrer sous un délai de 11 jours ouvrés. Si vous financez votre parcours de formation par vos propres moyens, alors le délai d'accès est immédiat. Vous pouvez entrer en formation tout au long de l'année.

  • ♿️ Nous accueillons les personnes en situation de handicap. Les conditions d'accessibilité aux personnes handicapées sont inscrites sur le site imi-education.fr, rubrique Accessibilité.

  • Saskia Cazettes Pour tout renseignement : 07 80 91 06 14 / saskia.c@imi-executive-solutions.com

  • 23 mars 2026

appostrof

Obtenez le meilleur de la formation professionnelle

Pourquoi choisir imi executive solutions ? ¯\_(ツ)_/¯

feature-icon

Mille formations en une seule !

Les meilleures formations réunies en une seule. Apprenez tous ce qu'il y a à savoir.

feature-icon

Présentiel ou distanciel

Inter ou intra, apprenez au côté de professionnels en activité.

feature-icon

Apprendre en faisant

Pédagogie active où l’apprenant est acteur de son propre apprentissage : construisez, créez, expérimentez !

feature-icon

Ingénierie de financement 👩🏼‍💻

Notre expertise au service de l'optimisation de vos budgets de formation.(OPCO, FSE+, FNE, FAF, CPF, EDEF)

feature-icon

E-Learning 💻

Accès illimité à tous les contenus (supports, cours, vidéos, exercices, templates)

feature-icon

Parcours sur-mesure

Nous adaptons le programme de la formation en fonction des besoins de votre entreprise

Notre révolution pédagogique est en marche

Des formations sur-mesure qui répondent à vos ambitions stratégiques.

Tarifs et solutions de financement

Pour les formations intraentreprise, nos tarifs ne dépendent pas du nombre de stagiaires. Notre organisme de formation est certifié Qualiopi

Avec un formateur

En inter ou en intra, en présentiel ou à distance, bénéficiez de l'accompagnement d'experts à la fois formateurs et professionnels de terrain.

Sur devis
Sessions programmées avec formateur
Avantages :
Accompagnement personnalisé
Sessions en visio ou en présentiel
Échanges interactifs avec un formateur expert
Supports de formation inclus
Certificat de fin de formation

Sans formateur

Des formations e-learning flexibles, accessibles à tout moment, pour monter en compétences à votre rythme.

Sur devis
Accès en ligne illimité pendant 6 mois
Avantages :
Accès 24h/24 aux modules en ligne
Vidéos, quiz et ressources téléchargeables
Auto-évaluation des acquis
Avancement à son rythme
Assistance technique incluse

Accès imi+

Les entreprises peuvent abonner leurs collaborateurs un accès illimité à l'ensemble de nos formations.

19€/mois/per
Accès multi-collaborateurs via abonnement entreprise
Avantages :
Accès illimité au catalogue pour vos équipes
Tableau de bord pour suivre les apprenants
Formations e-learning et sessions sur mesure
Gestion centralisée des accès
Devis personnalisé selon vos besoins

Le champ de la formation est exonéré de TVA.

Les financements possibles

Notre métier est aussi de vous accompagner dans l'activation des différents financeurs pour vous éviter le moins de reste à charge possible.

A la fin de cette formation, ajoutez sur votre CV :

Obtenez la certification délivrée par i.m.i. executive solutions.

Try it now

Formations à la une

Nos publications récentes

starsstar

Prêt·e à transformer vos compétences ?

Découvrez l'impact concret de notre programme sur vos problématiques quotidiennes

Réponse sous 48h