Guide MCP 2026 : Qu'est-ce que c'est, meilleurs serveurs et configuration
Le Model Context Protocol a atteint 97 millions d'installations. Découvrez ce qu'est le MCP, les meilleurs serveurs, comment le configurer dans Claude et Cursor, et pourquoi c'est important.
TL;DR — Le MCP en 2026
| Quoi | Protocole ouvert connectant les modèles d'IA aux outils et sources de données externes |
| Créé par | Anthropic (nov. 2024), désormais géré par l'Agentic AI Foundation de la Linux Foundation |
| Installations | Plus de 97 millions de téléchargements du SDK en mars 2026 |
| Serveurs disponibles | Plus de 12 000 sur npm, PyPI, GitHub et des registres comme Smithery |
| Clients compatibles | Claude Desktop, Claude Code, Cursor, Windsurf, VS Code (Copilot), Zed, Cline, Replit |
| Transport | Stdio (local), Streamable HTTP (distant) |
| Coût | Gratuit et open-source (Apache 2.0) |
Qu'est-ce que le Model Context Protocol ?
Le Model Context Protocol (MCP) est un standard ouvert créé par Anthropic qui définit comment les applications d'IA se connectent aux outils externes, aux API et aux sources de données. Considérez-le comme l'USB-C pour l'IA : une prise unique et universelle qui permet à n'importe quel modèle d'IA de communiquer avec n'importe quel service.
Avant le MCP, chaque outil d'IA avait sa propre méthode propriétaire pour appeler des services externes. Si vous construisiez une intégration d'outil pour ChatGPT, vous deviez la reconstruire pour Claude, puis à nouveau pour Cursor. Le MCP élimine cette fragmentation. Construisez un seul serveur MCP, et il fonctionne partout.
Anthropic a rendu le MCP open-source en novembre 2024. En décembre 2025, il a été confié à l'Agentic AI Foundation (AAIF) de la Linux Foundation, cofondée par Anthropic, OpenAI, Block, Google, Microsoft, AWS et Cloudflare. Au 25 mars 2026, il avait franchi la barre des 97 millions d'installations — la courbe d'adoption la plus rapide de l'histoire pour un standard d'infrastructure d'IA.
Comment fonctionne le MCP ?
Le MCP utilise une architecture client-serveur avec trois composants clés :
L'architecture
┌─────────────────────────────────────────┐
│ Host (Claude Desktop, Cursor, etc.) │
│ │
│ ┌───────────┐ ┌───────────┐ │
│ │ MCP Client│ │ MCP Client│ ... │
│ └─────┬─────┘ └─────┬─────┘ │
└────────┼───────────────┼────────────────┘
│ │
┌─────▼─────┐ ┌─────▼─────┐
│ MCP Server│ │ MCP Server│
│ (GitHub) │ │ (Postgres)│
└───────────┘ └───────────┘
- Host : L'application d'IA que vous utilisez (Claude Desktop, Cursor, Claude Code)
- MCP Client : Intégré à l'hôte, il maintient une connexion 1:1 avec chaque serveur
- MCP Server : Un programme léger qui expose des outils, des ressources ou des prompts depuis un service externe
Les trois primitives
Le MCP définit trois primitives pour le flux de données :
| Primitive | Contrôlée par | Exemple |
|---|---|---|
| Outils | Le modèle d'IA | "Recherche ce dépôt GitHub", "Exécute cette requête SQL" |
| Ressources | L'application | Contenu de fichiers, schémas de base de données, réponses d'API |
| Prompts | L'utilisateur | Modèles de prompts pré-construits pour des flux de travail spécifiques |
Transport
Toute la communication utilise JSON-RPC 2.0. Deux options de transport existent :
- Stdio : Pour les serveurs locaux. Le client lance le serveur en tant que sous-processus et communique via stdin/stdout. Zéro surcharge réseau, simplicité maximale.
- Streamable HTTP : Pour les serveurs distants. Utilise un point de terminaison HTTP unique pour la messagerie bidirectionnelle. A remplacé l'ancien transport SSE en 2025.
Top des serveurs MCP en 2026
L'écosystème a explosé pour atteindre plus de 12 000 serveurs. Voici les plus largement adoptés :
| Serveur | Se connecte à | Installations | Maintenu par |
|---|---|---|---|
| Filesystem | Fichiers locaux (lecture/écriture) | 485K+ | Anthropic (officiel) |
| GitHub | Dépôts, PR, issues, CI/CD | 398K+ | GitHub (officiel) |
| PostgreSQL | Bases de données Postgres | 312K+ | Anthropic (officiel) |
| Brave Search | Résultats de recherche web | 287K+ | Anthropic (officiel) |
| Playwright | Automatisation de navigateur | 180K+ | Microsoft (officiel) |
| Slack | Messages, canaux, threads | 150K+ | Anthropic (officiel) |
| Context7 | Documentation de bibliothèques à jour | 120K+ | Upstash |
| Supabase | Plateforme Supabase complète | 95K+ | Supabase |
| Firecrawl | Scraping et crawling web | 85K+ | Firecrawl |
| Notion | Pages, bases de données, recherche | 70K+ | Communauté |
Sélections notables
Context7 est sans doute le serveur ayant le plus d'impact pour le codage quotidien. Il donne à votre IA l'accès à la documentation actuelle et spécifique à la version d'une bibliothèque, éliminant les API hallucinées et les exemples de code obsolètes. Si votre agent IA continue de suggérer une syntaxe dépréciée, Context7 corrige cela. Playwright (par Microsoft) donne à votre IA le contrôle d'un véritable navigateur en utilisant l'arbre d'accessibilité de Playwright. Plus rapide et plus fiable que les approches basées sur des captures d'écran. Idéal pour les tests, le scraping et la vérification visuelle. Firecrawl gère l'extraction de données web sans quitter votre éditeur. Son outilfirecrawl_agent planifie sa propre stratégie de navigation, rassemblant des données provenant de multiples sources et renvoyant des résultats structurés.
Quels outils d'IA prennent en charge le MCP ?
Toutes les principales plateformes d'IA supportent désormais le MCP en tant que client :
| Outil | Support MCP | Notes |
|---|---|---|
| Claude Desktop | Complet | Intégration la plus profonde (Anthropic a construit Claude et le MCP) |
| Claude Code | Complet | Pas de limite d'outils, basé sur le terminal, supporte les serveurs locaux et distants |
| Cursor | Complet | Configuration la plus simple via l'interface des paramètres, limite de 40 outils par serveur |
| Windsurf | Complet | Contrôles d'entreprise robustes, configurations MCP gérées par l'administrateur |
| VS Code + Copilot | Complet | Support MCP natif dans le mode agent de GitHub Copilot |
| Zed | Complet | Support MCP intégré dans l'éditeur |
| Cline | Complet | Extension VS Code avec intégration MCP |
| ChatGPT | Partiel | OpenAI a adopté le support MCP en 2025 |
| Replit | Complet | Intégration MCP native dans le cloud |
Comment configurer des serveurs MCP
Dans Claude Desktop
- Ouvrez Claude Desktop et allez dans Settings > Developer > Edit Config
- Cela ouvre
claude_desktop_config.json. Ajoutez vos serveurs :
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/Users/votre_nom/projects"
]
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_TOKEN": "votre_token_ghp_ici"
}
},
"postgres": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-postgres",
"postgresql://localhost:5432/mydb"
]
}
}
}
- Quittez complètement et rouvrez Claude Desktop (ne vous contentez pas de fermer la fenêtre)
- Vous devriez voir une icône de marteau dans la zone de saisie du chat indiquant les outils disponibles
Dans Cursor
Option A — Interface des paramètres :- Allez dans Settings > Features > MCP
- Cliquez sur Add Server, remplissez le nom, la commande et les arguments
- Redémarrez Cursor complètement
Créez .cursor/mcp.json à la racine de votre projet :
{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp"]
},
"brave-search": {
"command": "npx",
"args": ["-y", "@anthropic-ai/brave-search-mcp"],
"env": {
"BRAVE_API_KEY": "votre_cle_ici"
}
}
}
}
Cette méthode est idéale pour le partage d'équipe via le contrôle de version.
Dans Claude Code
Ajoutez des serveurs via la ligne de commande :
# Ajouter un serveur stdio
claude mcp add filesystem -- npx -y @modelcontextprotocol/server-filesystem /Users/votre_nom/projects
# Ajouter un serveur avec des variables d'environnement
claude mcp add github -e GITHUB_TOKEN=ghp_votre_token -- npx -y @modelcontextprotocol/server-github
# Lister les serveurs configurés
claude mcp list
# Supprimer un serveur
claude mcp remove filesystem
Conseils clés de configuration
- Ne codez jamais de secrets en dur dans les fichiers de configuration. Utilisez des variables d'environnement ou un gestionnaire de secrets.
- Tout serveur qui fonctionne dans Claude Desktop fonctionne aussi dans Cursor — le format JSON est identique.
- Les serveurs stdio nécessitent Node.js (pour
npx) ou Python (pouruvx) installés localement. - Les serveurs distants n'ont besoin que d'une URL — aucune dépendance locale.
Créer votre propre serveur MCP
Si votre outil ou service n'a pas encore de serveur MCP, vous pouvez en construire un. Des SDK officiels existent pour TypeScript, Python, Java, Kotlin, C#, Swift et Go.
Voici un exemple minimal en TypeScript :
import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";
const server = new McpServer({
name: "mon-serveur",
version: "1.0.0",
});
server.tool(
"get_weather",
"Obtenir la météo actuelle pour une ville",
{ city: z.string() },
async ({ city }) => ({
content: [{ type: "text", text: `Météo à ${city} : 22°C, ensoleillé` }],
})
);
const transport = new StdioServerTransport();
await server.connect(transport);
Publiez-le sur npm et n'importe qui pourra l'ajouter avec npx -y nom-de-votre-paquet.
Pourquoi le MCP a gagné
Le MCP a réussi là où les tentatives précédentes de standards d'outils d'IA ont échoué pour trois raisons :
- Expédier d'abord, standardiser plus tard. Anthropic a lancé le MCP avec des serveurs fonctionnels et un support client réel avant de demander l'adhésion de l'industrie. Au moment où les concurrents l'ont évalué, des milliers de développeurs l'utilisaient déjà.
- Simplicité. Un serveur MCP basé sur stdio est un fichier unique. JSON-RPC est un protocole bien compris. La barrière à la construction d'un serveur se compte en minutes, pas en semaines.
- Gouvernance neutre. Le don du MCP à l'Agentic AI Foundation de la Linux Foundation — avec OpenAI, Google, Microsoft et AWS comme co-membres — a levé les inquiétudes concernant le "verrouillage Anthropic". Il est désormais véritablement neutre vis-à-vis des fournisseurs.
Déployer des applications propulsées par MCP
Une fois que vous avez construit une application utilisant des agents IA connectés par MCP, vous devez la déployer. Y Build gère la partie déploiement — un déploiement en un clic sur le réseau mondial edge de Cloudflare, avec analyses et SEO intégrés. Associez votre flux de travail IA alimenté par MCP à Y Build pour passer du prototype à la production en quelques minutes.
Commencez à construire gratuitement →Foire aux questions
Qu'est-ce que le MCP en termes simples ?
Le MCP (Model Context Protocol) est un standard universel qui permet aux assistants d'IA comme Claude, ChatGPT et Cursor de se connecter à des outils et des données externes. Au lieu que chaque IA construise ses propres intégrations, le MCP fournit un protocole qui fonctionne partout — de la même manière que l'USB-C fournit un câble unique pour tous les appareils.
Le MCP est-il gratuit ?
Oui. Le MCP est entièrement open-source sous licence Apache 2.0. La spécification du protocole, les SDK et les serveurs de référence officiels sont tous gratuits. Certains serveurs MCP tiers peuvent nécessiter des clés d'API pour le service sous-jacent (par exemple, une clé d'API Brave Search), mais le MCP lui-même ne coûte rien.
Dois-je être développeur pour utiliser le MCP ?
Pour la configuration de base (ajout de serveurs à Claude Desktop ou Cursor), vous avez besoin de connaissances techniques minimales — principalement du copier-coller de configuration JSON. Créer votre propre serveur MCP nécessite une expérience en programmation, mais utiliser des serveurs existants est simple.
Quelle est la différence entre le MCP et l'appel de fonctions (function calling) ?
L'appel de fonctions est une fonctionnalité au niveau du modèle où vous définissez des outils dans votre requête API. Le MCP est un standard au niveau du protocole qui se situe au-dessus de l'appel de fonctions — il définit comment les clients découvrent, se connectent et invoquent des outils hébergés sur des serveurs externes. Les serveurs MCP peuvent exposer des outils qui sont ensuite invoqués via la capacité d'appel de fonctions du modèle.
Quel serveur MCP devrais-je installer en premier ?
Commencez par Filesystem (pour l'accès aux fichiers locaux) et Context7 (pour une documentation à jour). Ces deux serveurs couvrent les cas d'utilisation les plus courants pour les développeurs. Ajoutez GitHub si vous travaillez avec des dépôts, et PostgreSQL ou Supabase si vous interagissez avec des bases de données.
Puis-je utiliser le MCP avec ChatGPT ?
Oui. OpenAI a adopté le support du MCP en 2025 et a cofondé l'Agentic AI Foundation aux côtés d'Anthropic. ChatGPT supporte le MCP, bien que Claude Desktop et Claude Code offrent actuellement l'intégration la plus poussée puisque Anthropic a créé à la fois le modèle et le protocole.
Combien de serveurs MCP puis-je exécuter à la fois ?
Il n'y a pas de limite stricte au niveau du protocole. Claude Desktop et Claude Code supportent autant de serveurs que vous en configurez. Cursor a une limite de 40 outils par serveur mais supporte plusieurs serveurs simultanément. En pratique, la plupart des développeurs exécutent 3 à 8 serveurs couvrant leur flux de travail principal.
Sources :
- Model Context Protocol — Site officiel
- Anthropic — Présentation du Model Context Protocol
- Anthropic — Don du MCP à l'Agentic AI Foundation
- Linux Foundation — Annonce de l'Agentic AI Foundation
- MCP atteint 97M d'installations — AI Unfiltered
- Pourquoi le Model Context Protocol a gagné — The New Stack
- Spécification MCP
- Répertoire des serveurs MCP sur GitHub
- Documentation MCP de Cursor
- Documentation MCP de Claude Code