Antoine Lemaire-Castonguay est Directeur données et analytiques chez SBI à Montréal. Il accompagne les organisations dans leur transformation data, avec une spécialisation sur l'écosystème Microsoft Fabric. En mars 2026, il a fait le voyage à Atlanta pour FabCon 2026, la plus grande conférence mondiale dédiée à Microsoft Fabric. Voici son récapitulatif pour les équipes data.
En comparant FabCon 2026 à l'édition 2025, il y a une différence claire dans le niveau de confiance de toute la communauté Microsoft Fabric. Certes, les conversations suite aux annonces viennent encore avec des nuances : pour certaines charges de travail avec certaines limitations ou dans des contextes précis.
Malgré ça, on sent que Fabric est passé de prometteur à prouvé.
Lors de la conférence ont été présentées des statistiques d’adoption du marché qui montrent bien cet engouement :
Voici ce que j'en retiens de l'évènement, après avoir laissé tomber la poussière.
Les Data Agents sont maintenant en disponibilité générale (GA).
Le Remote MCP (Model Context Protocol), un moteur d'exécution cloud sécurisé permettant aux agents IA d'effectuer des actions authentifiées dans Fabric. C’est en préversion publique.
Ensemble, ils redéfinissent l'expérience développeur.
* Beaucoup de discussions sur internet veulent que les skills remplacent les MCP. Pour moi, les MCP, c’est gouverné, standardisé et contrôlé par le provider et pas le développeur. Pas mal plus facile d'assurer le contrôle.
L'adoption des agents n'est pas un processus automatique. Les entreprises doivent construire une fondation de données fiable où les data products bien définis, avec propriété, documentation et qualité contrôlée. Article de Sanjeev Mohan (encore) à lire sur le sujet ici.
Un agent qui opère sur des données de mauvaise qualité prend de mauvaises décisions avec confiance et à grande vitesse.
Fabric IQ est une couche d'intelligence sémantique, la capacité la plus stratégique annoncée à l’event dans cette ère de l'IA. En effet, elle affirme la plateforme comme un support aux initiatives AI, intégré dans une interface déjà bien connue.
Elle crée une version partagée de la réalité au sein de la plateforme, en définissant comment une entreprise fonctionne à travers des propriétés, des actions, des politiques et des objectifs. C’est une couche de sens partagée sur laquelle les systèmes IA peuvent opérer.
Pensons à une entreprise où « client » veut dire une chose dans le CRM, une autre dans la facturation, et une autre dans les rapports de vente. Fabric IQ est la couche qui tranche — et qui s'assure que tous les agents travaillent avec la même réalité.
Microsoft prédit que plus d'un milliard d'agents intégreront la main-d'œuvre d'ici 2028 (ces chiffres viennent d’une étude commanditée par Microsoft, à prendre avec un grain de sel), selon moi, beaucoup seront ancrés dans Fabric IQ. Deloitte avançait aussi que 50 % des entreprises qui utilisaient du GenAI déploieraient des agents d’ici 2027.
Fabric IQ est puissant, mais, on le rappelle, si la donnée de la source n’est pas utilisable en l’état, on ajoute de la vitesse à de l'erreur.
Une ontologie construite sur un schéma défaillant pourrait amener une inférence qui mène à un résultat de forme crédible, mais pas sur le fond, pas le genre de choses qu'on veut voir. C’est le même risque inhérent à l’automatisation que j’ai mentionné un peu plus haut.
La question à poser avant de déployer : Vos définitions de métriques sont-elles déjà alignées entre les équipes ? Si non, commencez par là.
Le retour du Garbage In Garbage Out.
• Snowflake / OneLake : Lecture bidirectionnelle des données Iceberg, stockage natif des tables Snowflake-managed dans OneLake, sans mouvement de données (documentation)
• Databricks Unity Catalog - OneLake : Lecture native depuis OneLake via Unity Catalog. Write-back (écriture vers OneLake depuis Databricks) en développement (documentation)
• Mirroring étendu en GA : Oracle, SAP Datasphere - plus en preview : SharePoint Lists, Dremio, Azure Monitor
• Apache Iceberg comme format ouvert universel : c'est le standard qui rend tout ça possible
Avec le mirroring, c’est un peu du CDC natif sur beaucoup (de plus en plus) de plateformes et de solutions de données.
Drôlement, pour plusieurs cas client, le sharepoint lists, c’est celui qu’on attendait le plus. Beaucoup d’ajustements, de budgets, de targets, sont sur Sharepoint encore. Peut-être que ça va changer avec Lumel dans Power BI ?
Microsoft veut que Fabric soit au centre des écosystèmes données plutôt qu'exiger que tout soit migré à l'intérieur de ses murs. C'est une position stratégique intelligente - mais elle introduit une nouvelle complexité de gouvernance. Qui est propriétaire des règles d'accès quand les données traversent trois plateformes, qui gère les coûts, etc. Un beau problème, mais un problème à considérer quand même.
OneLake est positionné comme la couche de données unique et ouverte de l'entreprise - accessible par tous les outils, alimentée par tous les systèmes, transformée automatiquement à l'entrée. C'est la fondation sur laquelle tout le reste repose.
OneLake comme "source unique de vérité" est une belle promesse. Mais si les pipelines d'ingestion sont fragiles ou sans observabilité, cette source unique sera une source unique d'erreurs. L'investissement en DataOps (monitoring d'ingestion, alerting sur qualité, versioning) est le prérequis de toute cette architecture.
Lumel a annoncé une alliance stratégique de premier plan avec Microsoft pour intégrer nativement sa suite EPM (Enterprise Performance Management) directement dans Microsoft Fabric.
Planning in Fabric IQ est une nouvelle capacité de planification d'entreprise qui permet aux organisations de créer des plans, budgets, prévisions et modèles de scénarios directement sur les semantic models de Fabric dans une interface que tout le monde connaît bien, celle de Power BI.
Ce n'est pas un simple partenariat. Microsoft a intégré Lumel comme item de premier plan dans Fabric, ce qui signifie qu'il est maintenant inclus avec la licence Fabric. C'est un signal stratégique fort : Microsoft veut que la planification et l'analytique coexistent sur la même plateforme, avec les mêmes données, la même gouvernance, le même backend.
Pour la planification - budgets, prévisions, scénarios et objectifs - la plupart des équipes s'appuient encore sur des outils déconnectés, des processus manuels, et des données périmées. Le résultat : les dirigeants sont invités à prendre des décisions à fort enjeu avec un contexte fragmenté, des hypothèses contradictoires, et des plans qui dérivent rapidement de la réalité.
Planning in Fabric IQ ferme ce gap en permettant :
Ceci dit, Planning in Fabric IQ est encore en Public Preview - pas encore GA. Les décisions d'adoption sur des processus critiques comme la budgétisation annuelle méritent d'attendre la GA ou de démarrer sur des cas non-critiques.
L’équipe Finance de SBI regarde tout ça de près et prépare de beaux cas d’exemple.
Dans les dernières années, Fabric avait déjà une force gravitationnelle autour de l’outil. Les décisions d'architecture de données doivent se positionner : Fabric ou autre ?
Fabric est la seule plateforme de données à figurer comme leader dans quatre Magic Quadrants Gartner simultanément. Ses annonces de FabCon 2026 (Fabric IQ, les agents en GA, l'interopérabilité avec Snowflake et Databricks) dessinent une vision cohérente : une plateforme d'intelligence unifiée, ouverte, et ancrée dans le tissu Microsoft.
Mais la vision est ambitieuse, et l'exécution reste le vrai test. Les entreprises qui réussiront ne seront pas celles qui adoptent le plus de fonctionnalités ; ce seront celles qui construisent les fondations avant de déployer l'intelligence.
Données propres avant Fabric IQ. Data products avant agents. Gouvernance avant vitesse.
Dans les prochaines semaines, je vais explorer ces points :
Prochaine étape ? Je me lance dans l’intégration de dbt dans Fabric. Ayant travaillé sur beaucoup de projets utilisant dbt, je suis bien excité de voir cet outil intégré dans Fabric.
Et vous voulez savoir par où commencer ? Contactez-nous pour un échange avec nos experts data - on vous aide à identifier les fondations à mettre en place avant de déployer l'intelligence.