Les LLM sont des "cerveaux dans une boîte", isolés de vos données. MCP est le standard ouvert qui connecte l'intelligence aux outils et aux données réelles, remplaçant les intégrations API fragiles.
Des cerveaux puissants, mais enfermés sans accès direct aux données en temps réel.
Un LLM peut planifier et expliquer, mais il ne peut pas interroger une base de données, vérifier un agenda ou exécuter une commande sans intégration externe.
Chaque intégration IA est un projet d'ingénierie coûteux et difficile à maintenir.
La documentation API doit être réécrite pour devenir précise, concise et compréhensible par une IA.
Pourquoi les APIs traditionnelles échouent face aux workflows non déterministes des IAs.
Machine → Machine
Intelligence → Machine
MCP s'appuie sur les APIs existantes pour standardiser la découverte, le contexte et la sécurité.
Le serveur expose ses capacités à la demande, avec schémas et descriptions lisibles par machine.
Sessions, contexte et étapes multi-actions sont suivis par le protocole, pas par l'agent.
Les erreurs sont compréhensibles par l'IA et déclenchent l'auto-correction.
Scopes par outil/ressource : créer une PR sans autoriser la suppression d'un dépôt.
Suivez le parcours complet d'une requête depuis l'utilisateur jusqu'à l'exécution
"Quelle est la météo à Paris ?"
User Input
Analyse l'intention et décide d'appeler un tool
Intent Recognition
Construit la requête JSON-RPC
{ "method": "tools/call", "params": {...} }
stdio / HTTP / SSE
Protocol Layer
Reçoit et valide la requête
Request Validation
get_weather(city="Paris")
API Call → Weather Service
Résultat formaté et renvoyé
{ "content": [{ "text": "15°C, Ciel dégagé" }] }
Claude formule la réponse naturelle
"Il fait 15°C à Paris avec un ciel dégagé"
Exemples de code concrets pour démarrer rapidement
L'IA découvre automatiquement ce tool et comprend son schéma. Pas besoin de documentation séparée !
En ~30 lignes, vous avez un serveur MCP complet qui peut être utilisé par n'importe quel client MCP !
OAuth 2.1 + Resource Indicators = protection contre les tokens compromis. Le serveur ne gère que la validation, pas l'authentification.
Contrairement à "HTTP 400 Bad Request", l'erreur MCP explique exactement ce qui manque. L'IA peut se corriger seule !
MCP réduit drastiquement les coûts grâce au contexte persistant et aux erreurs sémantiques
Tokens consommés par interaction
Tokens consommés par interaction
Sur un projet typique avec 1000 interactions/jour, MCP peut réduire vos coûts de tokens de 1000€/mois à 300€/mois.
% tokens économisés
x plus rapide
% erreurs évitées
Observez comment le feedback sémantique de MCP sauve la conversation.
Envoyez de vraies requêtes JSON-RPC à un serveur MCP simulé
Sélectionnez un outil et remplissez les paramètres
Ce sandbox simule un vrai serveur MCP côté client. Choisissez un outil, remplissez les paramètres (ou laissez-les vides pour tester une erreur), et voyez la magie du feedback sémantique MCP en action. Contrairement à une API qui renverrait "HTTP 400", MCP vous explique exactement ce qui manque !
Explorez les trois types d'interactions que MCP standardise
Actions que l'IA peut invoquer pour interagir avec des systèmes externes
get_weather(city: string)
send_email(to, subject, body)
create_pr(repo, title, branch)
search_database(query)
Contenus que l'IA peut consulter mais pas modifier (contexte, documentation)
file://docs/README.md
db://users/schema
api://github/repos
memory://session/context
Instructions pré-définies que l'IA peut invoquer comme des workflows
code-review(file_path)
translate(text, target_lang)
summarize(document)
debug(error_trace)
Quelle primitive choisir ?
Orchestration, permissions et interprétation des intentions. Le LLM ne parle jamais directement aux outils.
Fonctions exécutables (Model-Controlled). L'IA décide de les appeler pour agir (ex: requête SQL, créer fichier).
Données en lecture seule (Application-Controlled). Comme des fichiers virtuels que l'IA peut lire pour le contexte.
Templates réutilisables (User-Controlled). Guides pré-écrits pour aider l'utilisateur et l'IA.
Cliquez sur les primitives ci-dessous pour construire votre serveur MCP
Cliquez sur chaque étape pour voir le détail du flux d'authentification délégué
Le client MCP initie le flux OAuth en redirigeant vers le serveur d'autorisation avec PKCE (Proof Key for Code Exchange) pour prévenir les attaques.
Le serveur MCP ne stocke jamais de credentials. Il délègue l'authentification à un service spécialisé (Auth0, Okta) et ne fait que valider les tokens JWT.
Un Client unique. Une infinité de Serveurs.
Comparaison point par point sur les besoins des agents IA.
MCP n'est pas magique : il introduit sa propre couche d'abstraction.
Les processus métiers très spécifiques ou historiques sont parfois difficiles à adapter aux primitives MCP.
La plupart des serveurs MCP encapsulent des APIs existantes, ajoutant une couche de conversion.
Chaîner de nombreux processus stateful peut atteindre les limites des clients actuels.
Les workflows avancés restent parfois mieux servis par des APIs directes et matures.
Si la flexibilité maximale, le contrôle direct ou l'intégration avec des services non modifiables sont non négociables, l'API traditionnelle reste la meilleure option.
La différence n'est pas seulement technique. MCP ajoute une couche sémantique pour rendre les APIs utilisables par l'IA.
Conçues pour des développeurs humains, du code déterministe et des secrets gérés côté client.
Conçu pour des agents IA : capacités décrites sémantiquement, permissions fines, contexte partagé.
L'avenir est hybride : APIs pour la puissance brute, MCP pour l'efficacité agent-native.
Entreprises qui ont adopté MCP avec succès
12 intégrations API différentes (Salesforce, GitHub, Slack, etc.) à maintenir manuellement. Chaque nouvelle intégration prenait 2 semaines de développement. Coûts tokens explosifs : 3500€/mois.
Migration vers une architecture MCP-first. Toutes les intégrations converties en serveurs MCP standardisés. Découverte dynamique + feedback sémantique = agents autonomes.
Agent IA interne devait accéder à 47 systèmes legacy différents. Sécurité critique : chaque clé API = risque. APIs hétérogènes = code spaghetti. Contexte perdu entre appels = expérience utilisateur désastreuse.
Déploiement progressif de MCP Gateway comme proxy unifié. OAuth 2.1 + Resource Indicators pour sécurité enterprise. Sessions stateful = contexte préservé. Permissions granulaires par outil.
Estimez vos économies potentielles avec MCP
L'écosystème MCP grandit chaque jour
Lancement par Anthropic
Annonce officielle du protocole MCP au monde
Adoption par OpenAI
Intégration officielle dans ChatGPT Desktop
Spec OAuth 2.1
Maj majeure : Resource Indicators + PKCE obligatoire
Support officiel Google
Google Cloud + Gemini intègrent MCP nativement
Cette présentation s'appuie sur la documentation officielle et les analyses de la communauté technique internationale.
Note sur les sources
Cette présentation compile et synthétise les connaissances de 31 sources techniques provenant de la documentation officielle d'Anthropic, d'analyses d'experts en architecture logicielle, et de retours d'expérience de la communauté internationale. Toutes les sources sont accessibles en ligne et régulièrement mises à jour par leurs auteurs respectifs.
Le Model Context Protocol introduit de nouveaux vecteurs d'attaque sophistiqués. Comprendre ces risques est essentiel pour un déploiement sécurisé.
Le MCP poisoning désigne plusieurs vecteurs d'attaque qui exploitent les vulnérabilités du Model Context Protocol. Ces attaques injectent des instructions malveillantes dans les métadonnées, descriptions ou paramètres des outils MCP.
Le problème : Les LLMs utilisent ces descriptions pour comprendre comment utiliser les outils. Les contenus empoisonnés peuvent forcer le modèle à des comportements dangereux, invisibles pour l'utilisateur mais visibles pour l'IA.
Injection d'instructions malveillantes dans les métadonnées des outils. L'IA exécute des commandes cachées : lecture de fichiers sensibles, exfiltration de données, actions non autorisées.
Les serveurs MCP peuvent créer des prompts et demander des complétions. Ils injectent des instructions cachées, manipulent les sorties et influencent les exécutions d'outils suivantes.
Contenu malveillant intégré dans les sources de données externes. Traité comme fiable, il influence le raisonnement du modèle et déclenche des actions non intentionnelles.
Vol de ressources (quotas IA), hijacking de conversations, invocations d'outils à l'insu de l'utilisateur via les requêtes de complétion MCP.
Les outils MCP peuvent muter leurs définitions après installation. Approuvé au départ, le comportement change silencieusement pour voler API keys et données.
Serveurs proxy exploités pour obtenir des codes d'autorisation sans consentement utilisateur. L'IA est piégée dans des décisions d'autorisation au nom des utilisateurs.
CVSS 9.4 - CRITIQUE
Remote Code Execution dans l'outil MCP Inspector d'Anthropic. Simple visite d'un site malveillant → exécution de code arbitraire sur machine développeur.
CVSS 9.6 - CRITIQUE
Command Injection dans le package mcp-remote. Premier cas de RCE complet contre un client MCP. Serveurs malveillants peuvent exécuter du code arbitraire.
La sécurité dépend ENTIÈREMENT de l'implémentation correcte, des contrôles opérationnels et de la gouvernance organisationnelle. MCP est un protocole puissant mais intrinsèquement risqué sans mesures appropriées.