logo

C’est quoi le MCP ?

Le MCP est un standard ouvert, créé par Anthropic en novembre 2024, qui définit comment un modèle d’IA communique avec des outils externes tels que les bases de données, les logiciels, les APIs ou les fichiers d’une entreprise. 

Avant le MCP, connecter une IA à un système d’entreprise (ERP, CRM ou tout autre outil logiciel) nécessitait du développement sur mesure pour chaque combinaison outil/modèle. Un travail long, coûteux et précaire. 

Le MCP résout ce problème avec une seule règle du jeu universelle : un connecteur par système, utilisable par tous les modèles compatibles. C’est pour ça qu’on l’appelle souvent le « port USB-C de l’IA »

En mars 2025, OpenAI adopte le MCP. Google DeepMind et Microsoft suivent. En décembre 2025, Anthropic cède la gouvernance du protocole à la Linux Foundation, aux côtés d’OpenAI, Google, Microsoft, AWS, Bloomberg et Cloudflare. Le MCP n’appartient plus à un seul éditeur. C’est une infrastructure neutre et ouverte. 

Pourquoi c’est important maintenant ?

Mais le MCP est ouvert, est-ce vraiment sécurisé ?

C’est la bonne question à poser. Et la réponse est nuancée. 

Le MCP est un protocole, pas une application. Il ne stocke aucune donnée. Il définit uniquement la façon dont une IA communique avec un système externe. La sécurité dépend donc de comment il est mis en œuvre, pas du protocole lui-même. 

Concrètement, plusieurs mécanismes encadrent cette sécurité : 

🔐
L’authentification
OAuth 2.1

 

Chaque connexion entre un agent IA et un serveur MCP peut être sécurisée avec des tokens d’accès, exactement comme une connexion sécurisée à une application web.

👁️
Le principe du moindre
privilège

 

Chaque serveur MCP n’expose que les outils et données pour lesquels il a été explicitement configuré. L’agent IA ne voit que ce qu’on lui autorise à voir. 

👣
La traçabilité

 

Chaque appel d’outil peut être journalisé, audité, et surveillé ; ce qui est un prérequis dans les environnements réglementés. 

En revanche, le protocole étant jeune, tous les déploiements ne sont pas encore matures. Selon une enquête Zuplo auprès de développeurs MCP (Zuplo, décembre 2025), 50 % des équipes citent la sécurité et le contrôle des accès comme leur principal défi. Un chiffre à prendre au sérieux — qui rappelle que le MCP doit être déployé avec rigueur, pas en mode expérimental. 

Pour une ETI, la bonne approche est simple : ne jamais exposer un serveur MCP sans authentification, limiter les accès aux seules données nécessaires, et choisir des partenaires qui maîtrisent ces sujets. 

Ce que ça change pour un ERP

Un ERP centralise toute la donnée de l’entreprise : commandes, stocks, clients, productions, interventions terrain. C’est exactement le contexte dont une IA a besoin pour être utile. 

Grâce à l’intégration du MCP, l’ERP devient la source de vérité que l’IA interroge en temps réel. Quelques exemples directs : 

  • Un technicien terrain demande à l’IA : « Quelles pièces sont disponibles pour cette intervention ? »
    l’agent IA consulte l’ERP ou le CRM et répond en quelques secondes. 
  •  Un commercial demande : « Quel est le meilleur moment pour relancer ce client ? »
    l’agent IA analyse l’historique dans l’ERP ou le CRM et propose une action. 
  •  Un responsable de production demande : « Est-ce qu’on peut tenir le délai de cette commande ? »
    l’agent IA vérifie le planning dans l’ERP et répond en quelques secondes. 

Selon Gartner, 40 % des applications d’entreprise intégreront des agents IA d’ici fin 2026, contre moins de 5 % au premier trimestre 2026 (Context Studios, mars 2026). Le MCP est le protocole sur lequel ces agents s’appuient pour accéder aux données. 

En novembre 2024, le MCP comptait environ 100 000 téléchargements. En mars 2026, il en est à 97 millions par mois — soit une croissance de 4 750 % en 16 mois (Digital Applied, mars 2026). 

Plus de 10 000 serveurs MCP sont aujourd’hui disponibles publiquement (ChatForest, mars 2026). 

Ce que ça change pour les ETI

Les grandes entreprises investissent massivement dans ces architectures.

Le MCP est précisément conçu pour que les entreprises de taille intermédiaire puissent en bénéficier sans tout reconstruire. 

Le protocole ne remplace pas l’existant… Le MCP augmente l’existant en en rendant les systèmes accessibles aux agents IA.

La vraie question n’est plus « faut-il s’y intéresser ? » mais « à quel moment l’ERP sera-t-il prêt à jouer ce rôle ? » 

Vous souhaitez comprendre comment les solutions Divalto évoluent
pour intégrer ces nouvelles capacités IA ?

Parlez-en avec nos experts !

Cet article vous a plu ? Partagez-le !

Nos derniers articles sur l’IA

IA 12 Mai 2026
MCP : le protocole qui connecte l’IA à vos outils métier 

L’IA générative est partout. Mais dans la plupart des entreprises, elle reste coupée de la réalité : elle répond à des questions générales, sans accéder à vos données, vos processus, votre réalité métier. Le Model Context Protocol (MCP) est la réponse technique à ce problème. Voyons son fonctionnement et ce qu’il change concrètement pour un ERP.

IA 21 Avr 2026
Les systèmes multi-agents : une nouvelle ère pour l’IA en entreprise

La course aux modèles d’IA toujours plus massifs atteint ses limites : coûts exponentiels, consommation énergétique colossale et résultats parfois imprécis. Une alternative s’impose : les systèmes multi-agents (SMA). Le principe ? Remplacer un modèle généraliste unique par plusieurs agents IA spécialisés, chacun expert sur sa mission, qui collaborent pour accomplir des tâches  complexes. Selon Deloitte, le marché des agents IA autonomes pourrait atteindre 35 milliards de dollars d’ici 2030 — et jusqu’à 45 milliards avec une orchestration optimale. Décryptage d’une approche qui pourrait bien transformer la gestion des entreprises.

IA 15 Avr 2026
SLM vs LLM : quel modèle d’IA pour vos futurs agents intelligents ?

L’intelligence artificielle entre dans une nouvelle ère : celle des agents IA autonomes, capables de planifier, d’exécuter et d’optimiser des tâches complexes sans intervention humaine constante. Selon Gartner, d’ici 2028, 33 % des applications d’entreprise intégreront des fonctionnalités agentiques, contre moins de 1 % début 2024. Mais derrière chaque agent se cache un choix technique structurant : quel modèle de langage le fait tourner ? Un LLM (Large Language Model) ou un SLM (Small Language Model) ? Ce choix a des conséquences directes sur les coûts, la rapidité, la fiabilité et la pertinence des réponses. Décryptage pour y voir clair.