Titre RNCP Niveau 7

Maîtrisez pipelines, cloud & IA pour devenir Data Engineer opérationnel.

Devenez Data Engineer

DataScientist.fr

Formations

L'équipeLa plateforme
Offre entreprises

🇫🇷

Streaming avec LangGraph : Créer des agents réactifs en temps réel
Artificial Intelligence
LLM
Python

Streaming avec LangGraph : Créer des agents réactifs en temps réel

Romain DE LA SOUCHÈRE

Lead Developer, Expert Cloud et DevOps

Publié le 16 mai 2025 · 10 min de lecture

Le streaming est devenu un élément incontournable pour le développement d'applications d'intelligence artificielle modernes, où la fluidité d'interaction et la réactivité sont essentielles. Dans un contexte où les LLMs (Large Language Models) occupent une place centrale, offrir une interface qui réagit instantanément aux actions de l'utilisateur est désormais un standard attendu. LangGraph, une extension puissante de LangChain conçue autour du concept de graphes, propose des capacités de streaming intégrées qui permettent de construire des agents plus transparents, plus interactifs et plus efficaces.
Grâce à ses fonctionnalités avancées, LangGraph donne la possibilité de suivre en temps réel le déroulement des traitements internes, qu’il s’agisse de la génération de texte, de l’appel à un outil externe ou de tout autre processus métier orchestré par l’agent. Ce retour en direct améliore non seulement l’expérience utilisateur, mais facilite également le développement, le débogage et la supervision de systèmes complexes.
Dans cet article, nous allons plonger dans les différents modes de streaming offerts par LangGraph et voir comment les exploiter au mieux pour construire des interfaces dynamiques et hautement informatives.

Pourquoi utiliser le streaming dans une application IA ?

L’intégration du streaming dans vos agents IA présente de nombreux avantages, à la fois pour l'utilisateur final et pour le développeur :
-> Réduction du temps de latence perçu : en affichant les réponses mot par mot ou étape par étape, l'utilisateur a l'impression que le système répond plus rapidement, même si l'exécution complète prend du temps.
-> Suivi de la logique d'exécution : chaque étape du raisonnement de l’agent peut être affichée, ce qui est utile pour la traçabilité, la vérification de l’exactitude des réponses et la compréhension du comportement de l’agent.
-> Enrichissement des interfaces : grâce aux mises à jour en temps réel envoyées depuis les outils ou le graphe, on peut afficher des indicateurs de progression, des logs explicatifs ou des états intermédiaires.
-> Grâce aux mises à jour en temps réel envoyées depuis les outils ou le graphe, on peut afficher des indicateurs de progression, des logs explicatifs ou des états intermédiaires.
Ces bénéfices permettent de concevoir des expériences utilisateurs plus engageantes et participatives, dans lesquelles la machine dévoile une part de son raisonnement, ce qui accroît la confiance de l'utilisateur.

Les différents modes de streaming dans LangGraph

LangGraph propose trois types de flux principaux, activables indépendamment ou de manière combinée, selon les besoins de votre application :

1. Suivi de la progression de l’agent (stream_mode="updates")

Ce mode permet d’émettre un événement à chaque étape franchie dans le graphe. Il est particulièrement utile pour obtenir une vue d’ensemble du parcours de l’agent à travers les différents nœuds :
python
Dans cet exemple, on peut recevoir successivement :
  • Une action générée par le LLM, comme une demande d’appel d’un outil ;

  • Le retour d’un outil avec ses résultats ;

  • Le message final construit à partir de toutes les informations traitées.

Ce type de flux est idéal pour monitorer le comportement d’un agent complexe et assurer une bonne compréhension de chaque phase de son exécution.

2. Streaming des tokens générés par le LLM (stream_mode="messages")

Ce mode permet de recevoir les tokens dès leur génération par le modèle, ce qui simule l’écriture en temps réel d’une réponse.
python
Cette méthode est idéale pour les interfaces conversationnelles, les chats temps réel, les assistants rédactionnels ou tout autre cas où l’immédiateté du texte généré améliore l’interaction. Elle permet aussi d’arrêter un flux à tout moment si l’utilisateur change d’avis, ce qui réduit les coûts de traitement.

3. Streaming personnalisé depuis les outils (stream_mode="custom")

LangGraph permet d’insérer des points d’émission personnalisés au sein des fonctions métiers (appelées "tools") grâce à la fonction getstreamwriter(). Cela donne la main au développeur pour transmettre n’importe quelle donnée en temps réel :
python
Ce type de flux est idéal pour envoyer des messages de log, des indications de progression métier (ex : "fetching page 3/10"), ou des alertes spécifiques. Cela renforce la transparence de l’exécution et enrichit le retour utilisateur.

Combinaison des modes de streaming

LangGraph vous permet d’activer plusieurs modes de streaming simultanément, ce qui ouvre la voie à une visualisation très complète du comportement de l’agent :
python
Cette approche hybride est recommandée dans les cas d’usage où la transparence et l’interactivité sont prioritaires, comme les interfaces de supervision, les outils d’analyse ou les démonstrateurs IA.
Vous hésitez encore ou avez besoin d'un accompagnement spécifique, notre équipe est à votre écoute

Désactivation du streaming : quand et pourquoi ?

Il est parfois utile de désactiver le streaming, en particulier dans des architectures multi-agents ou des systèmes distribués où un trop grand nombre d’événements pourrait saturer les canaux de communication ou alourdir les interfaces. Certains modèles peuvent aussi ne pas bien supporter le streaming, ou nécessiter une configuration spécifique.
Dans ces cas, LangGraph permet de cibler précisément quels agents ou outils doivent streamer leurs données, et lesquels doivent opter pour une réponse complète une fois le traitement terminé.

Exemple concret : tester les différents modes de streaming

Pour mieux comprendre les différences entre les modes de streaming, voici un exemple que vous pouvez exécuter vous-même. Il utilise un agent LangGraph avec un outil de recherche Tavily pour répondre à une question contextuelle. Le but est de modifier la variable STREAM_MODE pour observer les différences de comportement en fonction du mode de streaming activé ("messages", "updates", ou une liste combinée).
python
Vous pouvez modifier la valeur de STREAM_MODE et observer ce qui change à l'affichage :
  • Avec "messages", vous verrez les tokens du modèle s'afficher au fur et à mesure.
  • Avec "updates", chaque étape logique du graphe sera visible.
  • Avec "custom", ici ça ne produira rien, car il faudrait insérer des points d'émission dans l'agent.
  • Avec une liste combinée, vous obtiendrez une vue complète des différentes couches de traitement.
Cette approche est idéale pour expérimenter, déboguer ou concevoir des interfaces dynamiques.

Conclusion

Grâce à ses capacités de streaming modulaires et puissantes, LangGraph vous donne les outils nécessaires pour construire des expériences utilisateur riches, fluides et transparentes. Que vous cherchiez à rendre vos applications plus réactives, à offrir une meilleure visibilité sur les décisions de vos agents ou à créer des interactions plus naturelles, les différents modes de streaming s’adaptent à vos besoins.
En intégrant dès la conception ces possibilités de retour en direct, vous améliorez à la fois l’efficacité technique de votre application et la satisfaction de vos utilisateurs finaux.
Besoin d'une IA plus interactive et compréhensible ? Adoptez dès aujourd’hui le streaming avec LangGraph et donnez vie à vos agents conversationnels.
Envie d’aller plus loin ? Formez vos équipes à la conception et au déploiement d’agents LLM

Partager avec

💙 Merci d'avoir parcouru l'article jusqu'à la fin !

Romain DE LA SOUCHÈRE

Romain DE LA SOUCHÈRE - Lead Developer, Expert Cloud et DevOps

Ingénieur de formation avec plus de 11 ans d'expérience dans le développement back-end et le data engineering. Expert dans l’industrialisation des projets data dans le cloud.

» En savoir plus

Formations associés

Toutes nos formations

Préparez la certification PL‑300
Préparez la certification PL‑300
24 heures
Débutant
Garantie
Préparez la certification AZ-900
Préparez la certification AZ-900
10 heures
Débutant
Garantie
Préparez la certification DP‑700
Préparez la certification DP‑700
24 heures
Débutant
Garantie
Préparez la certification DP‑900
Préparez la certification DP‑900
10 heures
Débutant
Garantie

DataScientist.fr

By AXI Technologies

128 Rue de la Boétie,
75008, Paris, France

bonjour@datascientist.fr

+33 1 70 39 08 31

+33 6 86 99 34 78

© 2026 DataScientist.fr - AXI Technologies - Tous droits réservés