Titre RNCP Niveau 7

Maîtrisez pipelines, cloud & IA pour devenir Data Engineer opérationnel.

Devenez Data Engineer

DataScientist.fr

Formations

L'équipeLa plateforme
Offre entreprises

🇫🇷

La conférence Google I/O 2025 ne s’est pas contentée de présenter des mises à jour techniques — elle a annoncé une véritable redéfinition de notre rapport au numérique. L'intelligence artificielle n’est plus un moteur en arrière-plan : elle devient le centre de gravité de tous les produits Google.
Avec plus de 480 mille milliards de tokens traités chaque mois (x50 en un an), 7 millions de développeurs actifs sur l’API Gemini (x5) et plus de 400 millions d’utilisateurs mensuels sur l’application Gemini, l’adoption est spectaculaire. C’est une accélération fulgurante que Google assume pleinement avec sa stratégie “shipping faster than ever”.
Le message est clair : nous entrons dans l’ère Gemini, une période où les modèles d’IA ne se contentent plus de générer, mais comprennent, interagissent, anticipent, assistent. Gemini 2.5, AI Mode, Project Astra, ou encore les agents intégrés dans Chrome ou Search, incarnent cette vision d’une IA plus intelligente, plus agentique et plus personnelle.
La conférence a donc posé les bases d’un écosystème numérique centré sur l’utilisateur, ses besoins, son contexte. Ce qui n’était qu’un objectif stratégique il y a deux ans — l’IA-first — est désormais une réalité vécue quotidiennement.

Les modèles Gemini au cœur de la révolution cognitive

Gemini 2.5 Pro : Plus intelligent, plus profond

Gemini 2.5 Pro s’impose comme le modèle le plus performant jamais conçu par Google. Il domine les classements de benchmark tels que WebDev Arena (codage) et LM Arena, avec un gain de plus de 300 points ELO depuis la première version de Gemini Pro.
👉 Pour mieux comprendre cette avancée, consultez notre Comparatif 2025 : Gemini vs GPT-4o vs Mistral Large.
Ce modèle n’est pas simplement meilleur : il change la donne. Il est déjà disponible en prévisualisation pour les développeurs, et une généralisation est prévue prochainement. En parallèle, Google annonce une innovation radicale : le mode “Deep Think”, une fonctionnalité expérimentale permettant d’activer un raisonnement parallèle avancé. Cette technologie sera accessible aux testeurs de confiance, et marque une étape vers une IA plus réflexive, plus “humaine”.

Gemini Flash : Rapide, efficace, optimisé

Pensé pour les usages massifs et économiques, Gemini Flash combine vitesse et performance. Sa dernière version gagne 22 % d'efficacité par rapport à son itération précédente, et se place comme le deuxième meilleur modèle dans LM Arena, juste derrière 2.5 Pro.
Flash vise une IA accessible, rapide et durable, avec une mise à disposition générale prévue début juin. Il devient ainsi un levier clé pour les entreprises et développeurs souhaitant intégrer des modèles IA puissants à moindre coût.

Transparence et maîtrise : Thought Summaries & Thinking Budgets

Google renforce sa promesse de transparence algorithmique. Les nouveaux modèles Gemini intègrent les "Thought Summaries", qui permettent à l’utilisateur de comprendre comment le modèle raisonne. Cette fonction pédagogique vise à bâtir la confiance et faciliter l’audit des réponses.
Autre nouveauté : les "Thinking Budgets", des paramètres permettant de limiter les ressources utilisées par l’IA (coût, latence). Ces innovations offrent un contrôle inédit aux développeurs, aux entreprises, et aux utilisateurs avancés.

TPU Ironwood : 42,5 exaflops pour l’ère cognitive

Pour soutenir cette puissance de calcul, Google a présenté TPU v7 Ironwood, une infrastructure sur-mesure pour les modèles Gemini. Ces nouveaux TPU offrent 10× plus de performances que la génération précédente, avec une capacité de calcul allant jusqu’à 42,5 exaflops par cluster.
Disponibles bientôt sur Google Cloud, ils sont optimisés pour les opérations d’inférence, avec un focus sur l’efficacité énergétique et la scalabilité. C’est la colonne vertébrale technique de l’IA-first chez Google.
Pour aller plus loin : Formez-vous à l’IA Générative et apprenez à maîtriser les bases de l’intelligence artificielle générative.

Google Search 2025 : L’expérience réinventée avec AI Mode

AI Overviews & AI Mode : L’ère de la réponse proactive

La conférence Google I/O 2025 a confirmé une réalité : la recherche ne se limite plus à des liens bleus. Avec plus de 1,5 milliard d’utilisateurs mensuels, les AI Overviews se sont imposées comme un nouveau standard d’accès à l’information.
Désormais, AI Mode marque une nouvelle étape : une interface de recherche pilotée par IA, déployée dès aujourd’hui aux États-Unis. Propulsé par Gemini 2.5, AI Mode transforme le moteur de recherche en assistant actif. Il peut traiter des requêtes 2 à 3 fois plus longues, grâce à la technique du query fanout, qui exécute plusieurs recherches simultanées pour croiser les résultats en temps réel.
L’interface s’adapte dynamiquement à votre intention, offrant une réponse structurée, contextualisée et visuellement enrichie.

Deep Search & Visualisation : Une recherche ultra-contextuelle

Avec Deep Search, l’IA va encore plus loin : elle rédige des rapports approfondis, cités et documentés, à partir d’une multitude de sources web. Ce mode est particulièrement utile pour des questions complexes, nécessitant des analyses croisées ou des angles multiples.
À cela s’ajoutent des visualisations interactives dans les domaines du sport et de la finance. Par exemple, vous pouvez interroger des statistiques de baseball ou des évolutions boursières, et obtenir des graphiques générés dynamiquement.

Agents dans la recherche : achat, réservation, exploration en direct

L’intégration de fonctions d’agent intelligent permet à Search de passer de la réponse à l’action. Grâce aux briques de Project Mariner, AI Mode peut rechercher et réserver des billets de concert, des tables au restaurant ou des rendez-vous médicaux.
Autre innovation marquante : Search Live. En activant la caméra, l’IA peut analyser ce que vous voyez, poser des questions sur des objets, traduire un panneau en temps réel ou identifier une plante. Cette fonctionnalité s’appuie sur les travaux du Project Astra.
Enfin, le shopping immersif s’enrichit de la réalité augmentée : filtre dynamique, essayage virtuel de vêtements via des modèles 3D réalistes, et paiement assisté par agent.

Un assistant universel et personnalisé à portée de voix

Gemini Live & Project Astra : Comprendre votre environnement

Avec Gemini Live, Google transforme votre smartphone en assistant visuel contextuel. Annoncé lors de la conférence Google I/O 2025, cet outil exploite les avancées du Project Astra, un prototype conçu pour rendre l’IA “consciente du monde réel”.
Dès aujourd’hui, vous pouvez utiliser la caméra ou l’écran partagé sur Android ou iOS pour discuter avec Gemini de ce que vous voyez — que ce soit un tableau, un menu de restaurant ou une interface logicielle. Ce mode d’interaction visuelle change profondément la relation à l’IA, la rendant plus naturelle, plus spontanée, presque humaine.
Des intégrations à Agenda, Maps, Keep ou Tasks sont prévues, pour permettre une assistance contextuelle dans toutes vos tâches numériques.

Agents logiciels : Multitâche intelligent avec Project Mariner

La promesse d’une IA proactive prend corps avec Project Mariner. Ce projet explore la capacité d’un agent à interagir avec des logiciels et à apprendre par démonstration. Résultat : Gemini peut désormais effectuer jusqu’à 10 tâches en parallèle.
Exemple : vous montrez une fois à Gemini comment envoyer une facture, et il saura le reproduire. Ces capacités sont disponibles via l’API Gemini, déjà utilisées par Automation Anywhere ou UiPath, et seront bientôt intégrées à Chrome, Search (AI Mode) et l’application Gemini.

Personnalisation & vie privée : le Personal Context

Google introduit une brique clé : Personal Context, qui permet à Gemini d’utiliser vos données issues de Gmail, Drive, Agenda, Docs, avec votre consentement explicite. L’objectif : proposer des réponses ou contenus personnalisés, fidèles à votre style ou à vos habitudes.
Par exemple, Gemini pourra générer une réponse dans Gmail qui imite votre ton d’écriture, ou retrouver rapidement une note dans votre Drive pour l’inclure dans un rapport.
Cette fonctionnalité s’inscrit dans une approche transparente, privée et contrôlée, avec des paramètres accessibles pour activer ou désactiver chaque source. Son déploiement commence cet été dans Gmail, avant une extension à Search, Docs et l’appli Gemini.

IA créative : Images, vidéos et sons réinventés

Imagine 4 & V3 : L’union parfaite de l’image, de la vidéo et de l’audio

Avec Imagine 4, Google franchit un nouveau cap dans la génération d’images par IA. Le rendu visuel est nettement plus précis : détails fins, nuances de couleurs plus naturelles, et une typographie enfin maîtrisée. Le tout est 10 fois plus rapide que la génération précédente, avec des outils d’édition intégrés.
Mais la vraie révolution vient de V3, le modèle vidéo. En plus d’une meilleure compréhension physique (gravité, cohérence des scènes), il introduit une innovation majeure : la génération d’audio natif. Cela inclut les effets sonores, ambiances et même les dialogues synchronisés, ouvrant la voie à des récits complets générés de bout en bout.

Canvas & Deep Research : Créer ensemble, intuitivement

Dans l’application Gemini, Google lance deux fonctionnalités qui transforment la création collaborative :
  • Canvas, un espace de co-création IA, vous permet de transformer un texte, une image ou une idée en page web, infographie, quiz ou même podcast.

  • Deep Research permet quant à lui de téléverser des fichiers pour guider l’IA dans des explorations documentaires poussées. L’accès à Drive et Gmail est imminent, ce qui étendra considérablement la profondeur de recherche possible.

Ces fonctions s’adressent aux créateurs de contenus, designers, enseignants, mais aussi aux équipes produit, marketing ou formation.

Flow : Le studio vidéo IA pour créateurs

Le nouvel outil Flow fusionne Imagine 4, V3 et Gemini pour créer une suite de production vidéo assistée par IA. Vous assemblez des clips, ajoutez des éléments générés (images, sons), ajustez la durée et conservez la cohérence des scènes et des personnages.
Ce studio narratif donne le contrôle total à l’utilisateur tout en profitant de l’intelligence générative pour fluidifier les étapes créatives. Flow est déjà disponible pour les abonnés au plan Google AI Ultra.

Synth ID : Authentifier et sécuriser les contenus IA

Face à l’explosion des contenus générés, Google renforce Synth ID, sa technologie de filigrane invisible. Ce marqueur est désormais intégré à tous les contenus IA générés : images, texte, audio, vidéo — même en version partielle.
Plus de 10 milliards de contenus sont déjà marqués, et Google collabore avec des partenaires pour étendre l’écosystème de détection.

Vers un monde augmenté : XR, Beam et nouveaux modèles économiques

Android XR : L’IA dans les lunettes et les casques

La conférence Google I/O 2025 a marqué le lancement d’Android XR, une nouvelle plateforme pensée pour la réalité étendue (XR). Développée en partenariat avec Samsung et Qualcomm, elle vise les casques et lunettes intelligentes, avec Gemini intégré nativement.
Parmi les démonstrations, le Samsung Project Muhan a permis d’expérimenter la navigation contextuelle, la traduction vocale en temps réel, ou encore la recherche visuelle via des lunettes connectées. Des marques comme Gentle Monster ou Warby Parker rejoignent l’écosystème pour démocratiser ces nouveaux appareils.
Gemini devient ainsi une présence augmentée dans votre environnement réel.

Google Beam : La communication 3D rendue réaliste

Autre prouesse : la technologie Google Beam, héritière du Project Starline. Grâce à 6 caméras et un écran à champ lumineux, Beam transforme une simple vidéo 2D en interaction 3D réaliste, avec suivi de la tête et synchronisation dynamique.
Cette interface immersive sera proposée aux premiers clients en 2025 en collaboration avec HP. Elle s’intègre déjà à Google Meet, où elle permet la traduction vocale en direct entre l’anglais, l’espagnol, et bientôt d’autres langues.

Google AI Pro & Ultra : Nouveaux plans pour usages intensifs

Google capitalise sur l’adoption massive de Gemini avec deux nouvelles offres : Google AI Pro & Google AI Ultra
Le plan existant AI Premium est désormais appelé Google AI Pro. Sans coût additionnel, les abonnés Google AI Pro obtiennent désormais également l'accès aux capacités de réalisation de films IA dans Flow, leur permettant d'essayer l'outil avec le modèle Veo 2, ainsi que l'accès anticipé à Gemini dans Chrome. Ces nouveaux avantages sont d'abord déployés pour les abonnés Google AI Pro aux États-Unis, avant d'arriver dans d'autres pays. De plus, Google étend l'accès gratuit à Google AI Pro pour une année universitaire aux étudiants universitaires dans plusieurs pays.
Le nouveau plan Google AI Ultra conçu comme un "pass VIP" pour l'IA de Google, offrant les limites d'utilisation les plus élevées ainsi que l'accès aux modèles les plus performants et aux fonctionnalités premium. Ce plan est disponible aux États-Unis pour 249,99 $/mois, avec une offre spéciale de 50 % de réduction pendant les trois premiers mois pour les nouveaux utilisateurs, et arrivera bientôt dans d'autres pays. Les abonnés Google AI Ultra bénéficient d'avantages tels que la meilleure version de l'application Gemini avec les limites d'utilisation les plus élevées pour Deep Research et la génération de vidéo de pointe, l'accès à Flow avec des limites élevées pour la génération de vidéos en 1080p et l'accès anticipé à Veo 3, des limites accrues pour Whisk Animate, et l'accès anticipé à Deep Think dans Gemini 2.5 Pro dans les semaines à venir. Ce plan inclut également Gemini intégré dans des applications comme Gmail, Docs, Vids et Chrome (accès anticipé), le prototype de recherche agentique Project Mariner, un abonnement individuel YouTube Premium et 30 To de stockage.

Ces abonnements tracent les contours d’un modèle économique IA-first, entre performance, personnalisation et créativité augmentée.

IA pour le bien commun et la science : Impact réel au-delà des produits

Bien commun : Incendies, secours, accessibilité

Google ne se contente pas de déployer l’IA dans des produits commerciaux. À Google I/O 2025, plusieurs projets à fort impact sociétal ont été mis en avant. Le plus marquant : Firesat, une constellation de satellites dotés d’IA, capables de détecter en quasi temps réel des incendies de forêt.
Autre exemple : les drones Wing, désormais capables d’intervenir dans des zones sinistrées, comme après l’ouragan Helen, en collaboration avec les secours. L’IA optimise leurs trajectoires et priorise les zones critiques.
Enfin, un prototype d’accessibilité basé sur Astra offre une assistance visuelle à distance aux personnes malvoyantes ou aveugles. L’IA interprète l’environnement et guide l’utilisateur en vocal. Une avancée décisive pour l’inclusion.

Recherche avancée : médecine, mathématiques, biologie

Côté recherche, Google met à profit ses modèles IA pour faire progresser la science fondamentale et la médecine :
  • Alpha Proof : raisonnement mathématique rigoureux.

  • Alpha Revolve : exploration accélérée d’hypothèses scientifiques.

  • Amy : diagnostic médical assisté par IA.

  • AlphaFold 3 : prédiction des structures moléculaires complexes.

  • Isomorphic Labs : découverte de médicaments avec l’IA.

Ces outils participent à accélérer la recherche, à automatiser les raisonnements complexes et à sauver des vies.

Conclusion : Une vision IA qui devient réalité

La conférence Google I/O 2025 confirme ce que beaucoup pressentaient : nous vivons un tournant. Ce n’est plus seulement une évolution technologique, c’est une transformation systémique de notre rapport au numérique, propulsée par une IA omniprésente, personnalisée, proactive.
En quelques mois, Google a :
  • Redéfini la recherche en ligne avec AI Mode, Deep Search et les agents intégrés.

  • Déployé une IA multimodale et interactive, capable de voir, d’écouter, de comprendre et d’agir.

  • Offert aux créateurs et professionnels des outils puissants comme Flow, Canvas, Imagine 4 et V3.

  • Étendu l’IA à la réalité augmentée, à la communication immersive, et à des cas d’usage critiques pour l’environnement et la santé.

Cette nouvelle ère — celle de Gemini — n’est plus un projet de laboratoire. C’est une réalité accessible, déjà utilisée par des centaines de millions de personnes chaque jour.
Cette nouvelle ère — celle de Gemini — n’est plus un projet de laboratoire. C’est une réalité accessible, déjà utilisée par des centaines de millions de personnes chaque jour.
Google montre qu’un assistant universel, personnel, agentique et contextuel n’est plus un rêve, mais un objectif en cours de réalisation. La seule question désormais : comment allons-nous l’intégrer dans nos vies, nos métiers, nos sociétés ?

FAQ

Prenez un moment pour discuter de votre projet de formation avec un conseiller.

Quels sont les modèles IA présentés lors de la conférence Google I/O 2025 ?

Réponse :

Google a dévoilé deux modèles principaux : - Gemini 2.5 Pro : le plus avancé, dominant les benchmarks (WebDev Arena, LM Arena), avec un mode expérimental “Deep Think”. - Gemini Flash : optimisé pour la vitesse et l’efficacité (+22 %), deuxième meilleur modèle IA public.

Quand l’AI Mode sera-t-il disponible en France ?

Réponse :

AI Mode est disponible dès maintenant aux États-Unis. Google n’a pas encore communiqué de date officielle pour l’Europe, mais un déploiement progressif mondial est attendu dans les prochains mois.

L’application Gemini est-elle gratuite ?

Réponse :

Oui. L’application Gemini est gratuite sur Android et iOS. Certaines fonctionnalités avancées (Deep Think, Flow, génération multimédia…) sont réservées aux abonnés des offres Google AI Pro et Ultra.

Qu’est-ce que le mode Deep Think ?

Réponse :

C’est un mode de raisonnement avancé pour Gemini 2.5 Pro, activable par les testeurs de confiance. Il exploite le raisonnement parallèle, pour répondre à des requêtes complexes de façon plus approfondie.

Peut-on utiliser Gemini pour travailler avec ses fichiers pro ?

Réponse :

Oui. Grâce au Personal Context, Gemini peut accéder à vos fichiers Gmail, Drive, Docs, Agenda, avec votre accord. Cela permet des réponses personnalisées, une recherche intelligente ou une rédaction assistée dans votre style.

Qu’est-ce que Flow et qui peut l’utiliser ?

Réponse :

Flow est un outil de création vidéo IA combinant Imagine 4, V3 et Gemini. Il permet d’assembler des clips, ajouter des éléments générés, et garder la cohérence d’un récit. Il est réservé aux utilisateurs de Google AI Ultra.

Peut-on désactiver l’utilisation de ses données personnelles ?

Réponse :

Oui. L’accès de Gemini à vos données (via Personal Context) est entièrement optionnel, contrôlable et transparent. Vous pouvez choisir ce que l’IA peut voir ou non, et désactiver l’accès à tout moment.

Partager avec

💙 Merci d'avoir parcouru l'article jusqu'à la fin !

Romain DE LA SOUCHÈRE

Romain DE LA SOUCHÈRE - Lead Developer, Expert Cloud et DevOps

Ingénieur de formation avec plus de 11 ans d'expérience dans le développement back-end et le data engineering. Expert dans l’industrialisation des projets data dans le cloud.

» En savoir plus

DataScientist.fr

By AXI Technologies

128 Rue de la Boétie,
75008, Paris, France

bonjour@datascientist.fr

+33 1 70 39 08 31

+33 6 86 99 34 78

© 2026 DataScientist.fr - AXI Technologies - Tous droits réservés