notion

Notion reconstruit sa stack agentic : impacts SI et SLA

|

Agents autonomes, nouvelle donne SI – ce que cela change

Notion met l’agentic AI au cœur de son produit et rebâtit sa stack. Pour les DSI, la question dépasse l’effet d’annonce : elle touche à l’architecture, aux SLA, à l’observabilité et à la gouvernance des données. En toile de fond, l’adoption des agents progresse vite, mais les arbitrages coût/latence et les risques d’échelle déterminent la valeur réelle.

Notion 3.0 et l’agentic AI : le saut d’architecture

Début 2025, Notion a présenté sa version 3.0 avec des agents capables d’agir sur l’espace de travail pendant jusqu’à 20 minutes, sur des centaines de pages, et d’exécuter des workflows multi‑étapes de bout en bout. L’éditeur affirme avoir reconstruit une large part de son infrastructure pour soutenir ce degré d’autonomie, du moteur d’exécution aux permissions fines et à l’orchestration d’outils ( Reworked, Beamstart ). Dans les faits, les agents peuvent créer des documents, bâtir des bases, tenir une base de connaissances à jour, et se connecter à d’autres systèmes via de nouveaux connecteurs et le protocole Model Context Protocol (MCP), qui permet à des assistants comme Claude ou ChatGPT de lire/écrire en temps réel dans Notion ( Centre d’aide MCP, Docs développeurs MCP ).

Côté marché, l’intérêt pour les agents grimpe : certaines enquêtes citent 65% d’entreprises intéressées ce trimestre et 99% planifiant des déploiements, tandis que Gartner estime qu’un tiers des applications d’entreprise intégreront des agents d’ici 2028, contre 0% en 2024 ( Reworked, Akka ). Mais 40% des déploiements pourraient être annulés d’ici 2027 faute de valeur claire, de coût maîtrisé ou de contrôle des risques ( Akka ).w

Architecture, coûts, latence : les impacts concrets pour l’entreprise

La décision de Notion illustre un point clé : soutenir des agents nécessite souvent un réexamen de la stack applicative. Les architectures historiques sont rarement optimisées pour concilier latence, coûts variables des appels LLM, permissionnement fin au niveau ligne, et observabilité distribuée à travers des centaines d’outils. Selon IDC, 75% des charges de travail IA d’entreprise seront déployées sur des architectures hybrides adaptées d’ici 2028, et la modernisation cloud s’accélère pour des raisons d’efficacité, d’observabilité et de souveraineté ( IDC ).

Dans ce cadre, la montée en charge des agents interroge vos SLA. Un agent qui raisonne, récupère du contexte et agit sur plusieurs systèmes ne répond pas avec les mêmes budgets de latence qu’un chatbot. Au niveau opérationnel, il faut définir des attentes de latence et de contextualité par cas d’usage (ex. rédaction en 30–90 s, recherche opérationnelle <5 s, actions critiques avec confirmation humaine). Faute de cadrage, les coûts dérivent, la satisfaction chute et les escalades support augmentent.

Autre point décisif : l’observabilité. Orchestrer des chaînes d’outils, tracer les décisions du modèle, journaliser les appels externes et capturer le contexte utilisé deviennent indispensables pour expliquer un résultat, diagnostiquer une erreur et passer un audit. Les entreprises listent d’ailleurs l’observabilité et l’automatisation IA parmi les premiers critères de choix de leurs control planes cloud, en hausse nette en 2024 ( IDC ). À l’échelle, une architecture mal alignée est corrélée à des interruptions de service, des coûts élevés et des défis de sécurité pour plus de 90% des répondants dans certaines études d’exploitation ( APMdigest ).

Sur les coûts, la structure change. Au‑delà de la licence, l’agentic AI implique de nouveaux postes : intégrations temps réel, monitoring en continu, sandboxes de test, évaluation automatique et humaine, et optimisation continue des prompts/chaînes. Des estimations de marché placent le développement initial entre 30 000 $ et 150 000 $ pour des scénarios modestes, avec des coûts récurrents non négligeables pour les API tierces et le monitoring (jusqu’à plusieurs dizaines de milliers de dollars par an) ( Biz4Group ). Des cabinets anticipent que 5% à 10% des dépenses technologiques pourraient se déplacer vers ces capacités fondamentales dans les 3 à 5 ans ( Bain ).

Côté gouvernance, l’agentic AI cumule les défis de la genAI et ceux de l’action autonome : traçabilité des décisions, gestion des permissions fines, prévention de l’exfiltration de données, et exigences probatoires croissantes pour les audits. Deloitte note que seulement 30% des pilotes genAI atteignent la production complète, souvent par manque de confiance et de contrôles adaptés, et que les obligations d’audit s’étendront à la quasi‑totalité des produits IA à court terme ( Deloitte, IDC ). Notion a d’ailleurs ajouté des permissions au niveau des lignes de base, un signal fort sur le besoin de maîtrise des accès au plus fin ( Reworked ).

Déploiements, dépendances et réalité terrain : le décryptage

La trajectoire de Notion rejoint un mouvement plus large : Microsoft évoque désormais un agent par site SharePoint pour naviguer la surcharge informationnelle, tandis que des initiatives sectorielles en cybersécurité, conformité ou lutte anti‑fraude testent des agents spécialisés ( Reworked, Deloitte ). Selon AWS, la plupart des applications restent au niveau d’autonomie 1–2, avec quelques explorations de niveau 3 sur des périmètres étroits et un nombre limité d’outils ( AWS Insights ). Autrement dit, l’agentic AI en production se gagne cas d’usage par cas d’usage.

Interopérabilité et dépendance fournisseur constituent un autre arbitrage. Le MCP adopté par Notion facilite l’accès depuis des assistants tiers et limite le verrouillage au niveau des modèles, mais la logique d’orchestration, l’indexation des connaissances et les permissions restent propres à l’éditeur. Pour un SI, la question devient : construire une couche d’agents interne portable (frameworks type LangChain, LlamaIndex, AutoGen, CrewAI) ou s’appuyer sur la couche d’un vendor et accepter des compromis de portabilité et de contrôle ( Mirantis ). Des retours de terrain soulignent aussi la fragilité des architectures RAG agentic en conditions réelles : 90% des projets échouent à passer l’échelle faute d’orchestration robuste, d’indexation stable et d’évaluations continues ( Cake AI ).

La montée en charge impose enfin des standards nouveaux d’observabilité. Tracer une session d’agent nécessite de corréler prompts, appels outils, accès données, latence par étape et décisions de refus/confirmation. Sans ces métriques, impossible d’ajuster les budgets de latence, d’identifier les boucles inutiles de raisonnement, de réduire les coûts unitaires, ni de documenter un incident. C’est l’une des raisons qui poussent les entreprises à adopter des control planes centrés observabilité et automatisation, en forte progression selon IDC ( IDC ).

Points de vigilance avant d’industrialiser des agents

  • Latence par cas d’usage: définir des SLA réalistes (réponse, action, confirmation), avec dégradations contrôlées et fallbacks.
  • Contexte et données: limiter la dépendance au contexte volumineux; privilégier des API transactionnelles et des caches pertinents; appliquer des permissions au niveau ligne.
  • Observabilité bout en bout: tracer chaque étape (prompts, outils, appels, erreurs), garder des journaux exportables et auditables.
  • Coûts et évaluation continue: instaurer des garde‑fous de coût par session; automatiser les tests de régression; intégrer des revues humaines ciblées.
  • Dépendance fournisseur: choisir où placer l’orchestration; prévoir une voie de sortie (protocoles ouverts, abstractions de modèles, connecteurs réversibles).

Comment cadrer vos SLA pour l’agentic AI

Les SLA classiques de support applicatif ne suffisent pas. Il faut des accords spécifiques par dimension agentic: délai de première réponse, temps total d’exécution pour une tâche multi‑étapes, taux d’achèvement sans intervention humaine, précision mesurée par échantillonnage et coûts plafonds par tâche. Des budgets de latence devraient isoler le raisonnement, la récupération de contexte et l’exécution d’actions pour cibler les goulots d’étranglement. Sur les tâches critiques, définir des seuils de confiance déclenchant une confirmation humaine, et accepter qu’un SLA de sécurité prime parfois sur la vitesse.

Sur la gouvernance, prévoyez une traçabilité apte à répondre aux audits: qui a autorisé l’agent, quel périmètre de données, quels logs de décisions, quelles exclusions de données sensibles. Deloitte anticipe l’extension des exigences probatoires à 100% des produits IA, ce qui implique de documenter les jeux d’entraînement et les mécanismes d’exclusion des données sensibles dès la conception ( Deloitte ).

Construire ou acheter : une grille d’arbitrage rapide

Dans quelles situations suivre l’exemple de Notion et rebâtir une part de votre stack? Si vos cas d’usage exigent une orchestration d’outils hétérogènes avec forte contrainte de latence, des permissions fines et une observabilité détaillée, une plateforme d’agents interne vaut l’investissement. Bain recommande de concentrer l’effort sur quelques domaines à valeur élevée, d’intégrer sécurité/observabilité dès le départ et d’utiliser l’IA pour accélérer la transformation elle‑même ( Bain ). À l’inverse, pour des cas d’usage documentaires ou d’assistance légère, s’appuyer sur un vendor comme Notion peut offrir un time‑to‑value supérieur, à condition d’accepter ses limites d’interopérabilité et ses modèles économiques.

N’oubliez pas la réalité du taux d’échec. Les chiffres de production restent modestes: beaucoup de pilotes n’atteignent pas l’échelle, et des analyses rapportent des échecs massifs quand l’architecture n’est pas conçue pour la charge et la qualité des données requises ( Cake AI, APMdigest ). C’est un appel à l’humilité méthodique: cadrer, instrumenter, itérer, et geler la complexité avant d’ouvrir la vanne de l’autonomie.

En deux minutes : décider, cadrer, exécuter

Notion montre qu’une couche agentic sérieuse impose des choix d’architecture, d’observabilité et de gouvernance, pas seulement un branchement de modèle. Pour l’entreprise, l’enjeu est de définir où la latence et la contextualité créent de la valeur, puis d’investir en priorité sur ces parcours. La bonne question n’est pas « faut‑il des agents? », mais « où et avec quelles garanties mesurables? ».

Logo carre - BGTconsult.AI

Publications similaires