Pourquoi HybridAI fait l’impasse sur les serveurs MCP (et se concentre sur les vrais problèmes)

Oui, dans le contexte actuel de l’engouement pour l’IA, cette déclaration équivaut presque à un suicide, mais je voudrais expliquer brièvement pourquoi nous, chez HybridAI, avons décidé de ne pas mettre en place ou utiliser de serveur MCP pour le moment.

Les serveurs MCP sont une norme (actuellement encore “souhaitée”) développée et promue par Anthropic, qui suscite beaucoup d’écho dans la communauté IA.

Un serveur MCP vise à standardiser les appels d’outils (ou “function calls”) essentiels aux applications IA “agentiques” actuelles – c’est-à-dire l’interface entre le LLM (appel d’outil) et l’interface du service ou de l’outil externe, généralement une API REST.

Avec le moteur d’image actuel de ChatGPT – j’adore un peu ces images IA “poubelle” et elles vont me manquer…

Chez HybridAI, nous misons depuis longtemps sur une solide implémentation des appels de fonctions. Nous avons plusieurs dizaines de fonctions en production, utilisées par plus de 450 agents IA. Nous avons donc un peu d’expérience dans le domaine. Nous utilisons aussi N8N dans certains cas, ce qui ajoute une couche supplémentaire pertinente dans la pratique. Nos agents exposent également des API externes, donc nous connaissons le problème dans les deux sens (c’est-à-dire que nous pourrions à la fois mettre en place un serveur MCP pour nos agents et interroger d’autres MCP dans nos appels de fonctions).

Alors pourquoi je ne trouve pas les serveurs MCP géniaux ?

Simplement parce qu’ils résolvent un problème qui, à mon avis, existe à peine, et laissent deux problèmes bien plus importants des appels de fonctions et des configurations agentiques non résolus.

Premièrement : pourquoi le problème de la standardisation des API externes est-il relativement marginal ? Deux raisons. (1) Les API existantes sont souvent des API REST ou similaires, donc déjà standardisées. De plus, elles sont généralement très stables (par exemple avec « /v1/… » ou « /v2/… »). Même avec de nouvelles interfaces, les anciens endpoints restent souvent accessibles très longtemps. Et les vieilles API restent intéressantes – celles de l’ISS, de l’Office européen des brevets ou d’une ville. Ces services ne proposeront pas d’interface MCP de sitôt – il faudra donc continuer à gérer ces vieilles API. (2) Et c’est là que je suis surpris par le battage autour de MCP : les LLM sont très bons pour interroger ces vieilles API – bien mieux que d’autres systèmes que j’ai vus. On injecte la réponse brute de l’API dans le LLM, et il s’en sort. Pas de parsing, pas de gestion d’erreurs, pas de décryptage XML. Le LLM fait tout cela de manière fiable. Alors pourquoi ajouter MCP pour abstraire cela ?

MCP ajoute donc une couche technique supplémentaire pour un problème qui, dans la pratique, n’est pas si grave.

Les deux vrais problèmes sont plutôt :

–> La sélection des outils

–> L’exécution des outils et la sécurité du code

Sélection des outils : Les solutions agentiques permettent de combiner plusieurs outils, parfois en chaîne, le LLM décidant de ceux à utiliser et comment les combiner. Ce processus est influencé par les descriptions d’outils – de petits mini-prompts expliquant leur fonction et leurs arguments. Mais cela devient vite le bazar. Par exemple, nous avons un appel de fonction vers Perplexity pour des questions actuelles (“quel temps fait-il aujourd’hui…”), mais le LLM l’appelle aussi quand la question est juste un peu complexe. Ou il déclenche l’appel API de recherche WordPress alors que nous voulions la recherche web avec GPT-4.1. Cette partie est assez chaotique et va devenir plus complexe avec l’autonomie accrue.

Exécution des outils : Le gros problème pour la scalabilité et la sécurité vient de l’exécution locale du code des outils. Cela se passe sur votre propre système. Idéalement, chez HybridAI, nous proposerions à nos clients de nous soumettre leur propre code, qui serait exécuté comme appel de fonction quand le LLM le souhaite. Mais en termes d’intégrité du code, de stabilité et de sécurité de la plateforme, c’est un cauchemar (ceux qui ont déjà soumis un plugin WordPress comprendront). Ce problème deviendra encore plus important avec l’usage accru des outils « operator » ou « computer use » – qui tournent aussi localement.

Pour ces deux problèmes, j’aimerais avoir des idées – peut-être un TOP (Tool Orchestration Protocol) ou un TEE (Tool Execution Environment). Mais bon.

La beauté du Function-Calling

Un axe central de HybridAI est le « Function-Calling », c’est-à-dire la capacité de l’IA à interroger d’autres API et services en arrière-plan dans certaines situations et à intégrer leurs réponses directement dans la conversation.

Cela peut concerner une grande variété de demandes : la météo, les cours de la bourse, les systèmes de gestion des stocks, ou encore quelque chose d’aussi simple que la consultation des prix de l’énergie pour les prochaines 24 heures—afin d’aider l’utilisateur à décider du moment le plus économique (et écologique) pour lancer sa machine à laver. 🚀

Ou peut-être que l’on veut simplement savoir où se trouve actuellement la Station Spatiale Internationale. 🚀

Comme on peut le voir avec la question sur le lien Google Maps, l’IA peut réutiliser l’information dans le cours de la conversation et même la reformater si nécessaire.

Mais bien sûr, nous voulions aller un peu plus loin—car quelle serait la variante la plus logique d’un Function-Call pour les passionnés d’IA ?
Évidemment : une IA qui interroge une autre IA !

Et ce n’est pas une idée si farfelue, car il existe aujourd’hui des systèmes d’IA hautement spécialisés, comme Perplexity, qui est bien meilleur pour obtenir des informations en temps réel.

Alors, testons cela : combien de personnes ont manifesté hier à Berlin contre l’AfD ? 🚀

Il est important de noter que nous discutons ici avec ChatGPT 4.o-mini, un modèle d’OpenAI basé sur des informations datant d’il y a deux ans. Cela signifie qu’il ne peut pas connaître la réponse à cette question sur les manifestations contre l’AfD à Berlin.

Mais c’est justement là que le Function-Calling prend tout son sens !

Et bien sûr, on peut aussi demander la météo en temps réel—par exemple, quel temps fait-il actuellement à Auchenshuggle ? 🌍🚀

Cool, non ? 😎

N’hésitez pas à nous contacter si vous avez des idées pour de nouveaux Function-Calls !

Ou créez simplement votre propre compte gratuit ici : HybridAI Signup 🚀