Cette formation technique s’adresse aux développeurs souhaitant maîtriser l’intégration de l’IA générative dans leurs applications.
Vous apprendrez à utiliser des modèles de langage (LLM) via des APIs, à construire des pipelines de type RAG, et à déployer des assistants intelligents exploitables dans des environnements web ou métiers. Programme mis à jour le 23/12/2024.
0 /5
Taux de recommandation : 90%
Note moyenne pour l’ensemble de nos formations dispensées en 2024*
Pour planifier une formation ou obtenir plus d’information, merci d’envoyer un mail à : formation@keema.fr
*Il s’agit de la note moyenne et du taux de recommandation moyen attribué(e)s par les 71,10 % des 41 stagiaires ayant suivi une formation en 2024 et ayant répondu à notre questionnaire d’évaluation. (mise à jour le 11/12/2024)
Objectifs
Comprendre la logique et l’architecture des LLMs.
Manipuler les APIs des principaux fournisseurs de modèles.
Construire un moteur de recherche sémantique RAG.
Intégrer un assistant intelligent dans une application web.
Aptitudes / Compétences visées
Comprendre les mécanismes fondamentaux des modèles de langage (LLM).
Exploiter les principales APIs d’IA générative (OpenAI, Hugging Face, etc.)
Structurer des prompts efficaces pour interagir avec un LLM
Mettre en place une architecture RAG (Retrieval-Augmented Generation) avec leurs propres documents.
Utiliser des outils comme LangChain ou LlamaIndex pour construire des assistants intelligents.
Intégrer un LLM dans une application web (frontend/backend).
Assurer la qualité, la sécurité et le contrôle des coûts d’une application IA.
Programme de la formation
Journée 1 : Comprendre les LLMs et leur usage via API
Introduction à l’IA générative et aux modèles de langage.
Fonctionnement des LLMs (transformer, tokens, contexte, limites).
Présentation des principaux modèles.
Découverte des APIs : OpenAI, Hugging Face, Cohere, etc.
Intégration des bases vectorielles, documents internes, PDFs.
Atelier pratique : créer un moteur de question/réponse basé sur des fichiers PDF
Journée 3 : Création d’un assistant intelligent
Appels API chaînés & logique conversationnelle avancée.
Structuration de l’assistant (Choisir le modèle adapté, gérer l’état de la conversation, ajouter de la mémoire ou du contexte utilisateur).
Intégration dans une application front/back.
Conception d’une interface UX adaptée.
Bonnes pratiques qualité & monitoring.
Compétences et profils des formateurs
La formation est animée par un expert technique du développement logiciel, spécialisé dans l’intégration de l’IA générative dans des environnements applicatifs réels.
Il possède une solide expérience en développement ainsi qu’une maîtrise avancée des modèles de langage (LLM), des outils RAG (LangChain, LlamaIndex) et des solutions d’IA déployables en entreprise.
Modalités d'évaluation des acquis
Entrée en formation : Questionnaire de positionnement.
Pendant la formation : Quiz et mises en situation.
Fin de formation :
- Présentation d’un assistant intelligent fonctionnel conçu par les participants sur un cas d’usage métier.
- Échange évaluatif avec le formateur, basé sur les choix techniques, l’architecture retenue et la qualité des réponses produites.
Moyens techniques et matériel pédagogique
Un support de formation numérique (format PDF) est remis à chaque stagiaire. Exercices au format zip.
- En présentiel : Salle de formation équipée d’une connexion internet wifi, d’un vidéo projecteur et d’un paper board ou d’un tableau blanc.
- À distance : La formation a lieu en ligne sur la plateforme Google Meet (service de visioconférence), l’URL de connexion est communiquée par mail au plus tard la veille de la formation.