Une enquête publiée en février 2026 par l'agence Reuters a mis en lumière une multiplication d'incidents graves liés à des dispositifs médicaux intégrant de l'intelligence artificielle dans les blocs opératoires américains. Artères sectionnées, bases de crânes perforées, AVC postopératoires : les signalements auprès de la FDA se sont multipliés depuis l'intégration précipitée d'algorithmes de machine learning dans des systèmes de navigation chirurgicale.
Le cas le plus documenté concerne le système TruDi, développé par la filiale Acclarent de Johnson & Johnson. Ce dispositif, qui utilise l'IA pour guider le chirurgien en temps réel lors d'opérations ORL, a fait l'objet de plus de 100 signalements de dysfonctionnements après l'ajout de sa couche IA, contre seulement 7 avant. Plusieurs patients ont porté plainte.
Le problème de fond identifié par l'enquête : la FDA a autorisé la mise sur le marché de plus de 1 350 dispositifs médicaux intégrant de l'IA, souvent sans exiger d'essais cliniques spécifiques, en s'appuyant sur une procédure simplifiée de « dispositif similaire ». Le tout dans un contexte de réduction des effectifs de l'agence.
Une question de méthode, pas de technologie
L'intelligence artificielle au bloc opératoire n'est pas le problème. Le problème, c'est la manière dont elle est développée, validée et déployée.
Chez APROGSYS, nous travaillons depuis 2019 sur le projet MASSAI, devenu SSuWAI en 2026, dont l'objectif est précisément de développer un dispositif d'IA prédictive au bloc opératoire, en partenariat avec le CHU de Besançon Franche-Comté, l'Université Marie et Louis Pasteur (FEMTO-ST) et le CHUV en Suisse.
Notre approche est radicalement différente de celle décrite dans l'enquête Reuters. Le projet SSuWAI intègre dès sa conception un volet éthique et réglementaire complet (Work Package dédié), des études sur l'acceptabilité par les équipes soignantes, et une validation clinique rigoureuse dans deux CHU (Besançon et Lausanne). Le système n'est pas conçu pour remplacer le jugement du chirurgien, mais pour l'alerter en cas de situation à risque, en analysant des données cliniques (patient), environnementales (salle d'opération) et physiologiques (stress et fatigue du personnel).
C'est cette exigence de rigueur qui fait la différence entre une IA utile et une IA dangereuse.