Ai Engineer Summit Paris 2025

AI Engineer Summit Paris 2025 : retour sur les tendances et les sujets techniques

Auteur : Diego Akel, Ingénieur DevOps / Cloud
Diego Akel Ingénieur DevOps / Cloud
5 mins
15 octobre 2025
Dans cet article :
  1. Neo4j et le "state in AI" : le rôle central des graphes
  2. ZML : attention sur CPU, optimisations d’Inference
  3. MCP Server GitHub : orchestrer la production IA
  4. Migration de code automatique via LLMs : Spotify et d'autres
  5. Agents SWE : le nouveau paradigme
  6. Optimisation d'inférence
  7. Context Engineering
  8. Open Source et HF
  9. Pourquoi Paris devient clé pour l'AI Engineering
  10. Conclusion technique

Le dernier AI Engineer Summit à Paris a marqué une accélération visible du paysage IA européen, avec un basculement du centre de gravité qui quitte San Francisco pour une scène parisienne en pleine effervescence. Voici un tour d’horizon des points saillants et des implications pour l’ingénierie IA moderne, à partir des présentations et des discussions les plus marquantes du sommet.

Neo4j et le « state in AI » : le rôle central des graphes

L’équipe Neo4j a présenté des avancées remarquables sur la gestion du « state » en IA, notamment avec GraphRAG : une technologie illustrée aussi lors du AWS Summit, axée sur la récupération augmentée par graphes. GraphRAG permet de structurer et d’unir automatiquement des concepts semi-structurés, grâce à des modules de NER (Named Entity Recognition) robustes. Cette approche facilite une gouvernance fine du contexte et du « state » d’agents intelligents, un point critique pour l’industrialisation de workflows complexes.

ZML : attention sur CPU, optimisations d’Inference

L’une des présentations les plus techniques venait de ZML, qui a montré comment il est possible de faire tourner des modules attention sur CPU, en douceur et sans nécessiter de GPU massif. On voit ici un mouvement vers des infrastructures IA plus démocratiques : la capacité à faire tourner des modèles avancés sur du matériel grand public, ce qui ouvre la porte à de nouveaux usages pour PME ou pour de l’edge computing.

Cta Red Cream Formation Copilot

MCP Server GitHub : orchestrer la production IA

Le serveur MCP sur GitHub s’est imposé comme une pièce maîtresse de l’orchestration IA en production. Il permet d’automatiser la gestion du contexte à très grande échelle, rendant possible le suivi de milliersvoire de millions, de requêtes simultanées avec des agents SWE. Ce genre d’infrastructure est la colonne vertébrale de projets IA industriels, où la robustesse et le monitoring deviennent indispensables.

Migration de code automatique via LLMs : Spotify et d’autres

Un cas d’usage impressionnant a été la migration automatique de bases de code chez Spotify, exploitant les LLMs (Large Language Models) pour traduire et refactorer du code. Cette tendance, adoptée également par d’autres entreprises, illustre la capacité croissante des LLMs non seulement à assister le développement, mais à transformer activement l’infrastructure technique d’une entreprise tout en minimisant le downtime et les risques habituels associés à une réécriture manuelle.

Agents SWE : le nouveau paradigme

Presque toutes les discussions tournaient autour des SWE Agents. On assiste à un shift réel : jusqu’en 2023-24, le développement IA ressemblait encore à une discipline expérimentale, souvent concentrée à San Francisco. Mais le sommet a montré que Paris devient rapidement un centre de gravité pour l’ingénierie AQ, avec des agents qui entrent dans les chaînes de production de façon structurée et fiable. L’agent n’est plus un simple « demo », mais s’intègre dans des architectures avec bases de données dédiées, monitoring, logique transactionnelle bref, comme n’importe quelle composante logicielle mature.

Optimisation d’inférence

Presque tous les exposants ont abordé le sujet des optimisations du runtime : compression de modèles, exécution locale, hardware dédié, quantization et exploitation de frameworks comme MLX pour des inférences efficaces sur Mac Studio. On note une nette avancée dans la capacité à alléger les coûts d’exploitation, critique pour l’adoption à grande échelle en entreprise.

Context Engineering

Le concept de Context Engineering a pris une place centrale. Les équipes insistent désormais sur la nécessité de modéliser le contexte (historique utilisateur, tâches en cours, état transactionnel) pour obtenir une IA fiable et pertinente. Cela passe par l’utilisation couplée de bases graphes (Neo4j, GraphRAG) et de pipelines NER pour structurer automatiquement l’information.

Open Source et HF

Hugging Face a tenu une présentation sur les modèles open source et leur déploiement local dans des environnements d’entreprise, voire sur des Mac Studio dans des mallettes portables. On voit ici une vraie démocratisation technique : plus besoin de clusters cloud colossaux pour s’approprier l’IA en interne.

Pourquoi Paris devient clé pour l’AI Engineering

Plusieurs intervenants ont souligné ce virage géographique : alors que la Silicon Valley dominait l’innovation IA jusqu’en 2023, Paris attire désormais des équipes, des startups et des projets majeurs. La communauté locale mise sur la fiabilité, la scalabilité et l’intégration technique (base de données, monitoring, pipelines robustes), transformant l’IA de gadget en composante logicielle solide et industrialisée.

Conclusion technique

La qualité, la gouvernance du contexte et la robustesse sont désormais au centre du discours sur l’ingénierie AI, loin des démonstrations de surface. Les pratiques d’optimisation, l’orchestration MCP, la migration automatique par LLMs et l’intégration de bases graphes montrent que Paris n’est pas en train de simplement imiter la Silicon Valley, mais d’imposer un rythme propre, très orienté production et fiabilité logicielle. Toute entreprise cherchant à solidifier sa stratégie IA gagnerait à explorer ces innovations désormais accessibles depuis la scène parisienne.

Articles similaires

IA

Lambda Lens : découverte et analyse automatisées des fonctions Lambda avec l’IA

Alors que les entreprises adoptent de plus en plus des architectures serverless, le nombre de fonctions AWS Lambda dans les...

IA

IA Générative : comment aller au-delà du POC ?

Derrière l’engouement pour l’IA générative, une réalité s’impose : seules 22 % des entreprises sont prêtes à industrialiser. Pour avancer,...

IA

Comment déployer une IA locale et privée sur macOS ?

La situation du Machine Learning sur macOS a beaucoup évolué ces dernières années, transformant les ordinateurs Apple en stations de...