Une promesse ambitieuse, une sortie brutale

Pendant sept ans, la start-up californienne Kintsugi a travaillé sur une IA censée repérer des signes de dépression et d’anxiété à partir de la parole. Le principe était simple à expliquer et, comme souvent dans ce genre de dossier, beaucoup moins simple à faire passer devant la FDA.

L’entreprise n’ayant pas obtenu à temps l’autorisation réglementaire nécessaire, elle met fin à ses activités et publie la majeure partie de sa technologie en open source. Certaines briques pourraient d’ailleurs avoir une seconde vie hors du champ médical, notamment pour détecter des audios deepfake.

Une IA qui écoute la manière de parler, pas seulement les mots

En santé mentale, les évaluations reposent encore largement sur des questionnaires et des entretiens cliniques. Pas de prise de sang, pas de scanner magique. Le système de Kintsugi, lui, s’intéresse à la façon dont une personne parle plutôt qu’au contenu brut de ce qu’elle dit.

L’idée n’a rien de révolutionnaire sur le fond. Le rythme, les pauses, la structure des phrases ou la vitesse d’élocution sont depuis longtemps considérés comme des indices possibles de troubles psychiques. Kintsugi affirmait toutefois que son modèle pouvait capter des variations subtiles, parfois moins visibles pour un humain. L’entreprise n’a pas détaillé publiquement quels signaux précis alimentaient ses prédictions, mais elle a publié dans des travaux évalués par des pairs des résultats globalement alignés avec les outils de dépistage par auto-questionnaire, sur la base de courts extraits vocaux.

Une alternative, ou un complément, aux questionnaires classiques

Kintsugi présentait sa technologie comme un appui possible aux outils de dépistage auto-déclarés, ou même comme une alternative partielle à des références comme le PHQ-9, un questionnaire très utilisé en médecine générale et en psychiatrie.

Ces tests restent normalement associés à une évaluation clinique formelle. Ils sont largement validés, mais leur taux d’utilisation peut être faible. Ils reposent aussi sur la capacité des patients à décrire fidèlement leurs symptômes, ce qui n’est pas toujours garanti. Selon Kintsugi, son approche vocale pouvait fournir un signal plus objectif, élargir le dépistage à davantage de patients et être déployée à grande échelle dans les systèmes de santé, les assurances ou les programmes d’entreprise.

Petit détail réglementaire, évidemment pas négligeable : pour ça, il fallait l’aval de la FDA.

Le casse-tête de la FDA

La société cherchait une autorisation via la voie dite De Novo, conçue pour les dispositifs médicaux nouveaux à faible risque qui n’ont pas d’équivalent direct sur le marché. Sur le papier, c’est une procédure faite pour accélérer l’arrivée de produits inédits. Dans la pratique, elle peut tout de même exiger des années de données et d’examen réglementaire.

Grace Chang, fondatrice et directrice générale de Kintsugi, a expliqué à The Verge qu’une grande partie du temps a été consacrée à apprendre au régulateur comment penser l’IA. Le problème est aussi structurel : le cadre de la FDA a été pensé en grande partie pour des dispositifs plus classiques, comme les implants de hanche, les outils chirurgicaux ou les stimulateurs cardiaques, dont la conception change peu une fois approuvés. Pour une IA, cela revient souvent à figer un modèle qui, sinon, continuerait d’évoluer et de s’améliorer.

La FDA aime les objets stables. L’IA, elle, a la mauvaise habitude de continuer à bouger.

Financement à sec et impasse administrative

Même avec la volonté affichée de l’administration Trump de réduire les lenteurs réglementaires et de pousser les produits d’IA plus vite vers le terrain, Chang a indiqué que des experts du secteur lui répétaient qu’il n’existe rien de vraiment efficace pour accélérer les choses, sinon des ordres très bruyants venus d’en haut.

Les shutdowns fédéraux ont encore ralenti la procédure. Pendant ce temps, la société a épuisé ses fonds avant même de pouvoir déposer sa dernière soumission.

Les tentatives de lever de nouveaux capitaux ont échoué à mesure que la trésorerie se réduisait. Plutôt que d’accepter des offres de court terme qu’elle a qualifiées de prédateurs pour payer les salaires, Chang a préféré ouvrir le code de la plupart des technologies de l’entreprise. Elle a cité une proposition d’environ 50 000 dollars par semaine contre 1 million de dollars en actions. Les investisseurs, sans surprise, n’ont pas applaudi.

Les risques d’un outil de dépistage rendu public

Rendre open source un modèle de dépistage en santé mentale soulève évidemment des inquiétudes. Un outil destiné à détecter des signes de dépression ou d’anxiété pourrait être utilisé hors du cadre médical, par exemple par des employeurs ou des assureurs, sans les garde-fous habituels du secteur de la santé.

En clair, une fois publié, il devient difficile d’empêcher les usages qui n’étaient pas prévus au départ.

Nicholas Cummins, maître de conférences en analyse de la parole et IA responsable en santé au King’s College London, a expliqué à The Verge que les versions open source manquent souvent de la traçabilité détaillée qu’attendent les régulateurs. Il faut normalement pouvoir retracer clairement comment un modèle a été entraîné, validé et testé en matière de sécurité. Sans ce dossier, faire homologuer un produit fondé sur cette technologie pourrait devenir très compliqué.

Plus probable : une base de travail pour d’autres entreprises

Selon Cummins, le scénario le plus plausible est que des acteurs du marché récupèrent le modèle comme point de départ, puis y ajoutent leurs propres données et leurs propres validations. Même dans ce cas, il rappelle que les systèmes vocaux restent imparfaits et comportent un risque d’erreur jugé raisonnable.

Le problème est particulièrement net pour la dépression, qui ne s’exprime pas de la même manière selon les personnes, les langues ou les contextes culturels. Tout dépend aussi de la diversité et de la structure des données vocales utilisées à l’entraînement. Autrement dit, le genre de détail qu’on aimerait bien régler avant de confier l’outil à grande échelle.

Chang ne nie pas les risques de détournement, mais elle estime qu’ils sont moins importants en pratique qu’en théorie. Les organisations les plus tentées d’abuser d’une telle technologie seraient aussi celles qui rencontreraient les plus gros obstacles pour la déployer. À ses yeux, le vrai danger est plutôt l’absence d’usage que l’abus.

Une partie de la technologie reste sous clé

Tout n’a pas été publié. Chang précise qu’une partie des outils de Kintsugi reste privée, notamment pour des raisons de sécurité. Le plus sensible concerne la capacité à détecter des voix synthétiques ou manipulées.

Cette fonction est apparue lorsque l’équipe a testé des voix générées par IA pour renforcer ses modèles de santé mentale. L’audio synthétique ne présentait pas les signaux vocaux attendus par le système, ce qui a montré qu’il pouvait aussi distinguer une voix humaine d’une voix produite par machine.

Le sujet est devenu beaucoup plus urgent avec la prolifération de contenus générés artificiellement et des deepfakes frauduleux. C’est un marché prometteur, et, heureusement pour Kintsugi, un domaine qui n’entre pas dans le champ de contrôle de la FDA.

La suite, sans garantie

Chang n’a pas souhaité dire ce qu’elle ferait ensuite, ni si la technologie de sécurité de Kintsugi réapparaîtrait un jour ailleurs. Elle espère néanmoins que quelqu’un reprendra le flambeau et mènera le travail jusqu’au bout du processus réglementaire.

En attendant, la fermeture de Kintsugi ressemble à un exemple de plus où les calendriers des start-up se heurtent au rythme très particulier de la réglementation médicale. Et ce genre d’écart ne devrait pas, selon Chang, décourager les prochains fondateurs d’essayer malgré tout.