Titre RNCP Niveau 7

Maîtrisez pipelines, cloud & IA pour devenir Data Engineer opérationnel.

Devenez Data Engineer

DataScientist.fr

Formations

L'équipeLa plateforme
Offre entreprises

🇫🇷

TL;DR : Vous cherchez à transformer vos PDF en données prêtes pour l’IA générative ? Ce guide vous dévoile les meilleurs outils en 2025 — open-source, APIs cloud, OCR avancés et parseurs intelligents — pour exploiter vos documents comme jamais. Une ressource incontournable pour bâtir un pipeline RAG ou entraîner vos LLM avec des données fiables.

Pourquoi l’extraction PDF est cruciale pour l’IA générative ?

Vers une ingestion fluide des documents pour les LLM

L’extraction PDF pour l’IA générative est devenue une brique incontournable en 2025. Vous travaillez sur un projet de Retrieval-Augmented Generation (RAG), de fine-tuning multimodal ou de chatbot d’entreprise ? Le succès de votre pipeline dépend en grande partie de votre capacité à transformer vos documents PDF — qu’ils soient scannés, complexes ou académiques — en texte exploitable, propre et structuré.
Aujourd’hui, une nouvelle génération d’outils — open-source, APIs cloud ou frameworks intelligents — permet d’automatiser cette conversion avec une précision impressionnante, tout en respectant la confidentialité de vos données. Ce guide vous présente les meilleurs outils d’extraction PDF en 2025, comparés sur leurs performances, leur compatibilité avec les LLM et leur adaptabilité aux cas d’usage métier.
👉 Consulter notre article sur l'extraction web pour les RAG

🐍 PyMuPDF, PDFPlumber, PDFMiner : les classiques du parsing textuel

Les PDF natifs — documents contenant du texte encodé directement, sans OCR nécessaire — peuvent être traités efficacement par des parseurs open-source classiques. Ces outils restent une base fiable pour l’extraction simple et rapide de texte à destination de vos LLM ou de vos systèmes RAG.

PyMuPDF : rapidité et extraction multimodale

PyMuPDF (alias fitz) est l’une des bibliothèques Python les plus rapides pour l’extraction de contenu PDF. Elle permet de récupérer texte, images, métadonnées et mise en page avec une grande précision. Son intégration est simple et sa compatibilité avec les frameworks LLM (LangChain, LlamaIndex) en fait une solution plébiscitée dans les pipelines IA.
Il est souvent utilisé en pré-traitement pour extraire rapidement le contenu brut des documents avant vectorisation (IBM, 2025).

PDFMiner.six : contrôle fin de la disposition

PDFMiner.six est un fork actif de la célèbre bibliothèque PDFMiner. Il offre un contrôle bas niveau sur la position des caractères et la hiérarchie du texte, ce qui le rend particulièrement adapté à l’extraction contextuelle dans des PDF contenant des structures typographiques.
Il est apprécié pour la manipulation de documents complexes avec une logique de positionnement, comme les rapports techniques ou juridiques.

PDFPlumber : l’expert des tableaux natifs

PDFPlumber se démarque par sa capacité à détecter et extraire les tableaux présents dans les fichiers PDF, même lorsqu’ils ne sont pas encodés comme des structures HTML. Il propose également des outils visuels pour visualiser les zones détectées, ce qui facilite le débogage.
C’est un excellent choix si vous avez besoin d’extraire des données tabulaires exploitables sans passer par l’OCR (PlainEnglish, 2025).

🧠 Tesseract, PaddleOCR, EasyOCR : OCR open-source pour images et scans

Lorsque vous traitez des PDF scannés — donc sans texte encodé — l’OCR devient indispensable. Ces trois moteurs open-source transforment efficacement les images en texte lisible par les LLM, avec des niveaux de performance variables selon la langue, la mise en page et la qualité du scan.

Tesseract : la référence historique multilingue

Tesseract, soutenu par Google, reste la solution OCR open-source la plus répandue. Il prend en charge plus de 100 langues, fonctionne localement, et propose des formats de sortie comme hOCR ou ALTO XML.
Il affiche un taux de précision de ~90 % sur texte imprimé, mais faiblit sur les scans complexes ou les mises en page denses (Affinda, 2025).
Facile à intégrer avec PyTesseract, il convient aux projets multilingues avec contraintes budgétaires fortes. Attention : il ne gère pas les PDF directement — il faut les convertir en images en amont.

PaddleOCR : deep learning et précision de haut niveau

Développé par Baidu, PaddleOCR est basé sur du deep learning et atteint une précision supérieure à 95 % sur du texte imprimé, même en présence de bruit ou de rotation.
Il surpasse Tesseract dans les documents complexes grâce à sa gestion des colonnes, orientations multiples, et à ses modèles légers mais puissants (Baidu, 2025).
PaddleOCR est particulièrement adapté aux pipelines temps réel, grâce à son exécution rapide (GPU-friendly), son support multilingue (~80 langues), et ses performances robustes.

EasyOCR : solution simple pour prototypes multilingues

EasyOCR, conçu par Jaided AI, vise la simplicité. Il permet de lancer un OCR en quelques lignes de code Python, avec un support pour ~80 langues.
Il repose sur le duo CRAFT + CRNN, efficace sur texte clair, mais moins robuste que PaddleOCR sur les mises en page complexes ou les caractères exotiques (Researchify, 2025).
C’est une excellente solution pour des prototypes rapides ou des applications légères, mais à éviter dans des pipelines critiques nécessitant une très haute fiabilité.

🧩 docTR, MMOCR, Surya OCR : deep learning pour une reconnaissance enrichie

Les moteurs OCR traditionnels montrent leurs limites sur des documents riches, multicolonnes ou bruités. En 2025, une nouvelle vague d’outils open-source deep learning offre des performances comparables aux services cloud… tout en restant self-hosted et personnalisables. Voici trois références incontournables.

docTR : l’OCR français au niveau cloud

Développé par la startup Mindee, désormais rachetée par Stripe, docTR combine détection et reconnaissance dans un pipeline simple, rapide et puissant.
Il atteint des scores comparables à AWS Textract ou Google Vision sur les benchmarks publics, tout en restant utilisable localement ou via Docker (Mindee, 2025).
Basé sur DBNet, SAR, ViTSTR, docTR fournit des blocs positionnés (texte + bbox) permettant une reconstruction fidèle des pages. Son code est léger, bien documenté, et optimisé pour l’inférence rapide CPU/GPU.

MMOCR : la boîte à outils des chercheurs

MMOCR, porté par le projet OpenMMLab, est un framework modulaire regroupant de nombreux modèles SOTA (PSENet, CRNN, PARSeq…).
Il excelle sur les textes imprimés, permet la détection de tableaux, de mise en page, voire de texte manuscrit selon les modèles choisis (OpenMMLab, 2025).
MMOCR vise les utilisateurs avancés : sa configuration via YAML demande un peu de prise en main. Mais pour des besoins d’expérimentation ou d’adaptation sur mesure, c’est un excellent choix académique ou industriel.

Surya OCR : une alternative 100 % locale haut de gamme

Lancé en 2024, Surya OCR s’appuie sur un transformer inspiré de Donut et un détecteur EfficientViT, ce qui lui permet d’analyser finement des documents structurés, multi-colonnes ou financiers.
Il revendique une précision de 97,7 % sur des jeux de données complexes, légèrement au-dessus de PaddleOCR, à condition de disposer d’un GPU (Surya, 2025).
Surya gère les entêtes, tableaux, colonnes, ordonnancement du texte et propose une alternative crédible aux APIs cloud pour les structures riches. Encore jeune, il reste prometteur pour les entreprises cherchant une stack 100 % souveraine.

🧱 Unstructured, Marker, Docling : du PDF à la donnée sémantique

Extraire le texte ne suffit plus. En 2025, les outils les plus avancés ne se contentent pas de lire un PDF : ils en analysent la structure (titres, paragraphes, tableaux, images, etc.) pour livrer une sortie directement exploitable par un pipeline RAG ou une IA générative. Voici trois références majeures.

Unstructured : la bibliothèque pensée pour les LLM

Unstructured est une bibliothèque Python MIT, conçue pour préparer des documents complexes à l’ingestion par des modèles de langage. Contrairement aux OCR classiques, elle segmente un PDF en éléments logiques : titres, listes, tableaux, figures, etc.
Elle identifie les headers/footers, rattache les légendes aux images, détecte les blocs pertinents pour l’indexation (NarrativeText), et exporte le tout en JSON ou Markdown structuré (Unstructured.io, 2025).
Son mode hi_res active un OCR basé vision pour détecter les structures même sur PDF scannés. Intégrée à LangChain, elle est idéale pour construire des chunks contextuels robustes.

Marker : Markdown + LaTeX pour documents riches

Marker est un outil open-source (GPL-3.0) qui transforme vos PDF en Markdown enrichi, incluant formules LaTeX, images, blocs de code, tableaux, etc.
Il utilise OCR + détection de layout, fonctionne en CLI (Docker, K8s, GPU-friendly) ou via API, et excelle sur les documents techniques ou scientifiques contenant du code et des équations (Marker, 2025).
C’est une solution parfaite pour créer des corpus propres à partir de rapports R&D, de publications ou de présentations techniques.

Docling : parseur complet basé vision + ML

Issu d’IBM Research, Docling est un toolkit open-source qui convertit localement PDF, DOCX, PPTX, images en Markdown ou JSON structurés, avec une richesse inégalée.
Il s’appuie sur des modèles spécialisés (DocLayNet, TableFormer) pour détecter titres, formules, tableaux multi-pages, blocs de code, et exporte une structure détaillée exploitable directement dans un pipeline IA (IBM, 2025).
Docling fonctionne localement (CPU ou GPU), et constitue l’un des parseurs les plus complets et polyvalents du marché open-source en 2025.

🪄 LlamaParse, SmolDocling : parseurs GenAI-native

Face à la montée en puissance des LLM, une nouvelle génération de parseurs a émergé : conçus dès le départ pour produire des données “LLM-ready”, ils unifient OCR, parsing, structuration et sortie optimisée pour la vectorisation. En 2025, LlamaParse et SmolDocling incarnent cette nouvelle ère.

LlamaParse : extraction cloud-native pour LlamaIndex

LlamaParse, développé par LlamaIndex, est une API de parsing moderne pensée pour les workflows RAG. Gratuite jusqu’à 1000 pages/jour, elle gère plus de 10 formats (PDF, PPTX, HTML, DOCX) et produit une sortie en Markdown ou JSON vectorisable.
Il détecte tableaux, images, sections, en-têtes… et s’intègre directement à LlamaIndex pour fournir un document prêt à chunker et indexer sans post-traitement (OpenAI, 2025).
Cependant, il fonctionne uniquement en cloud, et des limitations apparaissent sur les documents à mise en page complexe (colonnes, headers), où il peut mélanger le contenu.

SmolDocling : une promesse locale ultra-compacte

SmolDocling, fruit du travail d’IBM Research, est un modèle vision-langage compact (256M paramètres) capable de traiter une page PDF en image et de restituer un balisage complet : texte, positions, tableaux, graphiques, formules, listes, blocs de code.
Il produit des fichiers au format DocTags, plus riches que du simple HTML ou Markdown, avec des performances proches de modèles 10 fois plus grands, et un throughput élevé (~0,35 s/page sur A100) (IBM, 2025).
Actuellement en version preview, SmolDocling illustre le futur du parsing : un modèle unique capable d’encoder l’ensemble du contenu documentaire en structure exploitable, sans pipeline complexe.

🔬 GROBID, Nougat, Science Parse : publications scientifiques et formules LaTeX

Les articles scientifiques en PDF sont parmi les plus difficiles à parser : colonnes multiples, formules, tableaux, citations, images… Pour les transformer en données exploitables par un LLM, il faut des outils capables de segmenter finement et de préserver la logique scientifique. Voici les trois références 2025 dans ce domaine.

GROBID : structuration XML des publications académiques

GROBID (GeneRation Of BIbliographic Data), développé en Java, est l’un des pionniers du parsing scientifique. Il est capable d’extraire automatiquement :
  • titre, auteurs, affiliations,

  • résumé, sections, références bibliographiques,

  • tableaux et figures (repérés mais non interprétés).

Il produit une sortie au format TEI XML, idéale pour des bases de données ou pour le fine-tuning de modèles sur des documents balisés (GROBID, 2025).
Cependant, GROBID ne traite que les PDF contenant du texte (pas d’OCR intégré). Il reste aujourd’hui un outil de référence pour les revues scientifiques.

Nougat : Markdown + LaTeX, powered by Donut

Nougat, basé sur l’architecture Donut (OCR + transformeur vision-langage), va plus loin que GROBID. Il transforme un article scientifique PDF en Markdown enrichi, avec les formules converties en LaTeX.
Le modèle est entraîné sur des milliers d’articles scientifiques et fournit une sortie lisible, exploitable directement dans un environnement LLM ou un site statique Markdown (OpenAI, 2025).
C’est la meilleure solution actuelle pour reconstruire les équations, tout en conservant le contenu textuel, les titres, les citations et la mise en forme.

Science Parse : parsing académique automatique

Science Parse, développé par AllenAI, est un moteur orienté extraction de métadonnées et résumé d’articles scientifiques. Il identifie :
  • titre, auteurs, date, institutions,

  • résumé, bibliographie,

  • structure globale du papier.

Il est rapide, auto-hébergeable, et adapté à des volumes importants de documents, même si sa sortie reste moins riche que GROBID ou Nougat (AllenAI, 2024).
Il est souvent utilisé pour alimenter des bases de recherche ou des dashboards LLM sur corpus académique.

☁️ AWS Textract, Azure AI, Google Document AI : OCR intelligents & structurés

Les géants du cloud — Amazon, Microsoft, Google — proposent des solutions OCR hautement précises, capables non seulement d’extraire du texte, mais aussi de comprendre la structure des documents PDF (formulaires, tableaux, paragraphes…). Ces APIs sont idéales pour les cas d’usage exigeant scalabilité, sécurité et performance.

AWS Textract : extraction fine avec positionnement et formulaires

Amazon Textract est une API OCR avancée capable d’identifier :
  • le texte brut (imprimé et manuscrit),

  • les tableaux avec lignes et colonnes,

  • les paires clé-valeur dans les formulaires.

Elle affiche un taux de 98 % de précision sur du texte imprimé standard, avec sortie JSON hiérarchisée (coordonnées, type de champ, etc.) (AIT, 2025).
Textract fonctionne parfaitement sur les documents mixtes (texte + scan), ce qui en fait un excellent choix pour l’automatisation des flux documentaires administratifs ou légaux.

Azure AI Document Intelligence : OCR + structure logique

Anciennement connu sous le nom de Form Recognizer, Azure AI Document Intelligence propose :
  • des modèles pré-entraînés pour les documents courants (factures, cartes d’identité…),

  • une reconnaissance des blocs logiques, lignes, paragraphes, checkbox…

Il supporte également l’écriture manuscrite et les documents multilingues, avec un bon respect de la mise en page (Microsoft, 2025).
Azure offre aussi une intégration fluide avec le cloud souverain européen, utile pour les données sensibles (conformité RGPD).

Google Cloud Document AI : structure et OCR multilingue

Google Document AI combine :
  • un OCR multilingue (Google Vision OCR),

  • une analyse de hiérarchie documentaire (pages → blocs → paragraphes → mots).

Il atteint également ~98 % de précision, et excelle dans la conservation de la structure logique d’un PDF même complexe (AIT, 2025).
Très adapté aux pipelines LLM cloud-natifs, Google Document AI s’intègre bien avec Vertex AI, BigQuery, ou les outils Firebase.

🧾 ABBYY FineReader, Mindee, Rossum : extraction de données métier

Dans certains cas, vous avez besoin de plus que du texte : vous voulez des champs précis, des données exploitables, voire des formulaires structurés pour l’intégration dans des systèmes ERP, CRM ou bases de données. En 2025, plusieurs services spécialisés excellent dans cette extraction ciblée et hautement précise.

ABBYY FineReader : la Rolls-Royce de l’OCR professionnel

ABBYY FineReader, disponible en cloud ou on-premise, reste une référence mondiale pour l’OCR de précision. Sa version 2024 :
  • atteint ~98 % de précision sur du texte imprimé ou manuscrit,

  • supporte 211 langues (record actuel),

  • identifie tableaux, champs, zones manuscrites avec un niveau industriel.

C’est l’un des seuls outils capable de fonctionner sans cloud, tout en offrant des performances comparables aux grands fournisseurs cloud (AIT, 2025).
Très utilisé dans les secteurs réglementés (banques, bibliothèques, administration), ABBYY est aussi réputé pour son SDK personnalisable.

Mindee API : extraction sur mesure avec API rapide

Fondée en France, Mindee propose une suite d’APIs OCR, avec des modèles entraînés pour :
  • factures, reçus, cartes d’identité,

  • documents métier personnalisés.

Elle utilise les modèles de docTR, mais en version hébergée et packagée pour la production à l’échelle. Les APIs sont rapides, stables et documentées (Mindee, 2025).
Mindee est idéale pour les équipes tech cherchant un compromis entre contrôle, personnalisation et rapidité de déploiement.

Rossum : lecture intelligente de formulaires

Rossum est une solution orientée comptabilité, finances et logistique, spécialisée dans l’extraction automatique :
  • de factures,

  • de bons de commande,

  • de reçus ou documents administratifs structurés.

Elle combine OCR + NLP + machine learning pour identifier les champs les plus probables, et s’entraîne à partir de vos propres documents.
Rossum propose une interface d’annotation et validation humaine, idéale pour des processus semi-automatisés à fort enjeu de qualité.

🧮 Mathpix, Parseur, Nanonets : spécialisation sur les champs ou les équations

Quand vos documents contiennent des formules mathématiques, des structures très spécifiques ou des champs complexes à identifier, les outils généralistes atteignent leurs limites. En 2025, des solutions ciblées comme Mathpix, Parseur ou Nanonets s’imposent pour répondre à ces besoins avancés.

Mathpix : l’expert des formules LaTeX

Mathpix est une API spécialisée dans l’OCR scientifique. Elle est capable de détecter :
  • les formules mathématiques manuscrites ou imprimées,

  • les équations imbriquées dans du texte,

  • et de les convertir en LaTeX structuré, avec visualisation intégrée.

Elle est très utilisée dans la recherche, l’édition académique et les applications éducatives, avec une précision inégalée sur les symboles complexes (AIT, 2025).
Mathpix s’intègre via API REST et fonctionne en cloud uniquement. Pour des documents scientifiques denses, elle complète parfaitement des outils comme Nougat ou Docling.

Parseur : extraction de champs par template

Parseur permet de définir des modèles de capture personnalisés pour extraire des champs spécifiques dans des documents semi-structurés, comme :
  • des factures,

  • des emails convertis en PDF,

  • ou des rapports métier.

L’interface no-code permet d’annoter un PDF en glissant-déposant les champs cibles, que Parseur extraira ensuite automatiquement à chaque envoi.
C’est une solution parfaite pour automatiser des processus répétitifs sans besoin de NLP ou de LLM. Elle est appréciée par les équipes non techniques dans les services comptables ou commerciaux.

Nanonets : OCR API entraînée sur vos données

Nanonets propose des modèles OCR entraînables sur vos propres documents. Vous chargez vos scans, annotez les zones cibles, et la plateforme entraîne un modèle spécialisé.
Elle est utilisée dans la logistique, les RH, l’assurance ou la santé, pour extraire des données de formulaires personnalisés, souvent manuscrits ou bruités.
Nanonets combine OCR, layout analysis et machine learning supervisé, avec des intégrations vers Zapier, Make, ou API REST. C’est un bon choix pour des documents hétérogènes ou des formats non standards.
Envie de vous former à l'IA générative ?

Comparatif 2025 : quel outil pour quel usage ?

Chaque outil présenté plus haut répond à des besoins spécifiques : extraction brute, parsing sémantique, OCR scientifique, scalabilité cloud ou traitement local. Pour vous aider à choisir, voici un tableau comparatif selon les critères clés en 2025.
Outil / API Type PDF OCR intégré Structuration Langues Mode d’exécution Cas d’usage recommandé
PyMuPDF Natif Faible N/A Local (Python) Extraction rapide de texte
PDFPlumber Natif Moyenne (tableaux) N/A Local (Python) Tableaux natifs
PDFMiner.six Natif Faible à moyenne N/A Local (Python) Contrôle typographique
Tesseract Scanné Faible 100+ Local (CLI/Python) OCR multilingue gratuit
PaddleOCR Scanné Moyenne 80+ Local (CPU/GPU) Documents bruités / multilingue
EasyOCR Scanné Faible à moyenne 80+ Local (Python) Prototypes multi-langues
docTR Scanné Moyenne Multilingue Local/Docker OCR deep-learning open-source
MMOCR Scanné Variable (selon modèles) EN, ZH+ Local/Custom Recherche, flexibilité
Surya OCR Mixte Élevée 90+ Local (GPU) Formulaires complexes, PDF riches
Unstructured Mixte ✅ (hi_res) Élevée Multilingue Local/API RAG, parsing intelligent
Docling Mixte Très élevée Multilingue Local (CPU/GPU) Documents riches, tableaux
Marker Mixte Markdown + LaTeX Multilingue Local/API Docs techniques avec formules
LlamaParse Mixte Élevée Multilingue Cloud RAG cloud-native
SmolDocling Scanné Très élevée (DocTags) Multilingue Local (GPU) Parsing unifié Vision+LLM
GROBID Natif XML scientifique Multilingue Local (Java) Structuration académique
Nougat Scanné Markdown + LaTeX Multilingue Local (GPU) Articles scientifiques
Science Parse Natif Moyenne EN Local/Cloud Métadonnées académiques
AWS Textract Mixte Très élevée 100+ Cloud Formulaires, documents complexes
Azure Document AI Mixte Très élevée 100+ Cloud Bloc logique, conformité RGPD
Google Document AI Mixte Très élevée 100+ Cloud Structure logique avancée
ABBYY FineReader Mixte Très élevée 211 Cloud/On-premise OCR premium sécurisé
Mindee API Scanné Moyenne Multilingue Cloud API Factures, reçus
Rossum Scanné Champs métier Multilingue Cloud Comptabilité, logistique
Parseur Natif/Scanné Modèles personnalisés Variable Cloud (no-code) Extraction ciblée sans code
Nanonets Scanné Modèle entraînable Multilingue Cloud API OCR personnalisé entreprise
Mathpix Scanné Équations LaTeX 30+ Cloud API OCR scientifique, éducation

Recommandations par cas d’usage

  • PDF natifs simples : utilisez PyMuPDF ou PDFPlumber.

  • PDF scannés avec texte imprimé : privilégiez PaddleOCR ou docTR.

  • Documents multilingues ou complexes : optez pour Unstructured, Docling ou ABBYY.

  • Formulaires ou reçus métier : préférez Textract, Rossum ou Parseur.

  • Articles scientifiques avec formules : combinez Nougat avec Mathpix.

  • Environnements souverains / RGPD : tournez-vous vers ABBYY on-premise, Tesseract, Docling ou Surya OCR.

Conclusion & recommandations

En 2025, l’extraction PDF pour l’IA générative n’est plus un simple pré-traitement : c’est un levier stratégique pour la qualité de vos résultats. Que vous construisiez un pipeline RAG, alimentiez un agent LLM ou prépariez un fine-tuning, le choix du bon outil conditionne la précision, la structure et la scalabilité de vos données.
Voici les recommandations selon vos priorités :

✅ Vous travaillez avec des PDF natifs simples :

  • Optez pour PyMuPDF ou PDFPlumber. C’est rapide, léger, et idéal pour des pipelines locaux.

🧠 Vous avez des PDF scannés ou multilingues :

  • PaddleOCR (open-source) ou AWS Textract (cloud) offrent les meilleures précisions OCR.

  • En open-source pur, docTR est un excellent compromis.

🪄 Vous souhaitez préparer vos documents pour un LLM :

  • Choisissez Unstructured ou Docling pour une structuration fine.

  • LlamaParse est parfait si vous êtes déjà dans l’écosystème LlamaIndex.

📚 Vous traitez des articles scientifiques :

  • Utilisez Nougat pour un Markdown + LaTeX.

  • Combinez-le avec Mathpix pour capturer les équations complexes.

🔐 Vous avez des exigences RGPD / souveraineté :

  • Préférez ABBYY FineReader en on-premise, ou Tesseract / Surya OCR pour un pipeline local sans cloud.

🏭 Vous avez des documents métier complexes (factures, formulaires) :

  • Textract, Rossum, Parseur ou Nanonets sont les plus adaptés à l’extraction de champs.
En résumé : ne cherchez pas “le meilleur outil”, mais l’outil le plus adapté à votre cas d’usage et vos contraintes techniques.
Vous hésitez encore ou avez besoin d'un accompagnement spécifique, notre équipe est à votre écoute

Partager avec

💙 Merci d'avoir parcouru l'article jusqu'à la fin !

Romain DE LA SOUCHÈRE

Romain DE LA SOUCHÈRE - Lead Developer, Expert Cloud et DevOps

Ingénieur de formation avec plus de 11 ans d'expérience dans le développement back-end et le data engineering. Expert dans l’industrialisation des projets data dans le cloud.

» En savoir plus

Formations associés

Toutes nos formations

Préparez la certification PL‑300
Préparez la certification PL‑300
24 heures
Débutant
Garantie
Préparez la certification AZ-900
Préparez la certification AZ-900
10 heures
Débutant
Garantie
Préparez la certification DP‑700
Préparez la certification DP‑700
24 heures
Débutant
Garantie
Préparez la certification DP‑900
Préparez la certification DP‑900
10 heures
Débutant
Garantie

DataScientist.fr

By AXI Technologies

128 Rue de la Boétie,
75008, Paris, France

bonjour@datascientist.fr

+33 1 70 39 08 31

+33 6 86 99 34 78

© 2026 DataScientist.fr - AXI Technologies - Tous droits réservés