Dans les salles de réunion vitrées où se décident les prochains standards du numérique, quelques logos ultra-connus ont discrètement commencé à réécrire la façon dont les IA vont se parler, collaborer… et peut-être se partager le monde.
Google, Microsoft, OpenAI, Anthropic, Amazon et d’autres confient leurs briques techniques d’« agents IA » à une nouvelle structure open source, l’Agentic AI Foundation (AAIF), hébergée par la Linux Foundation. Objectif : définir des standards communs pour des agents IA interopérables, au-delà des silos propriétaires.

MCP, Goose, AGENTS.md : le socle commun : Le socle commun repose sur trois projets open source. MCP (Model Context Protocol) permet de connecter les modèles aux outils et aux différentes sources de données. Goose, développé par Block, sert de framework d’agent local extensible. Enfin, AGENTS.md définit un standard de consignes de projet pour encadrer le comportement des agents de développement.
Interopérabilité… mais gouvernance très US : Le discours officiel : éviter la fragmentation et le lock-in en créant une gouvernance ouverte des agents IA. Dans les faits, le tour de table est quasi exclusivement américain ; des acteurs comme Mistral ou DeepSeek restent hors du périmètre pour l’instant.
Ce qu’il faut retenir : AAIF pose les rails de « l’internet des agents IA » : protocoles, sécurité, bonnes pratiques. Pour les entreprises, ce n’est pas qu’un sujet technique : c’est un futur standard d’écosystème qui pèsera sur le lock-in cloud, la souveraineté des données et la place de l’Europe dans l’IA agentique.
🛰️ Le radar du Big Data
Jeff Bezos, via Blue Origin, développe depuis plus d’un an une technologie de data centers orbitaux dédiés à l’IA, selon le Wall Street Journal. Objectif : exploiter l’énergie solaire continue de l’espace pour contourner les limites énergétiques et hydriques des data centers terrestres, de plus en plus critiqués.
Snowflake s’allie à Ataccama pour proposer une couche de « Real Time Data Trust » directement dans le Data Cloud. L’objectif : profiler, contrôler et corriger en continu les données afin de fiabiliser les cas d’usage d’IA en production et limiter le risque lié à des données dégradées.
