L’intelligence artificielle a un problème de confiance. Malgré tout le battage médiatique autour de l’IA générative et des grands modèles de langage, de nombreuses entreprises hésitent à réellement adopter cette technologie. Ils s’inquiètent des hallucinations bien documentées que les LLM sont enclins à générer et ils n’aiment pas l’opacité des systèmes de boîtes noires dans lesquels ils ne peuvent pas vérifier comment le modèle est arrivé à ses résultats.
La start-up espagnole Maisa promet de pouvoir résoudre ces problèmes. Et bien que nous soyons dans un monde où les technologues sont enclins à faire valoir leurs innovations, l’entreprise a gagné le soutien de certains bailleurs de fonds impressionnants. Elle vient de lever 5 millions de dollars auprès de Village Global, la société de capital-risque soutenue par les dirigeants de la big tech, Mark Zuckerberg, Eric Schmidt et Jeff Bezos, qui investit aux côtés de NFX, du Sequoia Scout Program et de plusieurs autres business angels.
« Nous pensons que l’approche de nombreuses entreprises d’IA ne fonctionnera tout simplement pas parce qu’elles demandent aux entreprises de faire aveuglément confiance à leurs modèles », déclare David Villalón, co-fondateur et PDG de Maisa. « De plus, leurs modèles donnent des réponses basées sur le résultat le plus probable, même lorsqu’il existe de grandes lacunes dans les données, ce qui signifie qu’il est inévitable qu’ils aient parfois des hallucinations. »
Les entreprises sont rapidement devenues très méfiantes face à ces défauts, explique Villalón. Il cite une étude récente d’Amazon, qui a révélé que si 25 % des entreprises avaient commencé à expérimenter l’IA générative, seulement 6 % avaient utilisé la technologie dans un environnement de production en direct. Même au sein de ce groupe, certaines entreprises ont par la suite renoncé à utiliser cette technologie après avoir rencontré des difficultés.
Villalón et le co-fondateur Jochen Doppelhammer, aujourd’hui COO de l’entreprise, ont donc décidé de construire quelque chose de différent chez Maisa. « La différence fondamentale avec nous est que nous n’utilisons pas l’IA pour nous donner des réponses », explique Villalón. « Nous utilisons l’IA pour nous donner un processus permettant d’obtenir une réponse. »
Si cela semble plutôt nuancé, Villalón aime parler de l’expérience des élèves à l’école. « Votre professeur de mathématiques ne voulait pas seulement que vous lui donniez une réponse au problème qu’il vous avait posé ; il voulait également que vous montriez comment vous y êtes parvenu, afin qu’il puisse être sûr que vous compreniez ce que vous faisiez.
En pratique, la technologie de Maisa – baptisée Vinci KPU – utilise des LLM existants tels que Google Gemini et Anthropic Claude pour effectuer des tâches complexes. Mais surtout, il guide les utilisateurs à travers ses résultats étape par étape, afin qu’ils puissent voir d’où ils viennent et vérifier qu’ils en sont satisfaits. L’idée est de proposer un modèle plus précis, mais aussi totalement transparent ; les utilisateurs peuvent suivre et auditer chaque étape du processus de prise de décision, en intégrant la technologie dans leurs flux de travail tout en gardant une vue sur ce qu’elle fait.
Pour de nombreuses entreprises, c’est vital. Par exemple, Maisa travaille avec une grande société de services financiers qui s’était auparavant retirée de l’adoption de l’IA parce qu’elle se sentait très mal à l’aise de faire des recommandations aux clients sans pouvoir expliquer comment elle les avait atteints. Un autre client, un grand constructeur automobile international, utilise Maisa pour analyser les risques dans sa chaîne d’approvisionnement, où des problèmes imprévus – et des résultats d’IA inexacts – pourraient arrêter la production. Ailleurs, une société pétrolière et gazière utilise Maisa pour gérer ses responsabilités critiques en matière de conformité dans un secteur où les problèmes de sécurité peuvent avoir des conséquences mortelles.
Ces premiers utilisateurs de la technologie de Maisa (la société n’a été fondée que l’année dernière) donnent aux investisseurs l’assurance qu’elle peut être commercialisée et développée. La société a également commencé à accumuler les distinctions de la part des chercheurs en IA, notamment des analyses comparatives suggérant qu’elle correspond au nouveau modèle de raisonnement o1 très apprécié d’OpenAI sur les tests GPQA Diamond.
« L’équipe Maisa développe une technologie transformatrice pour transformer les agents d’IA en véritables travailleurs capables de raisonner à travers des flux de travail complexes », explique Max Kilberg de Village Global. « Nous sommes très heureux de voir les nouvelles références et la traction des entreprises. »
Villalón estime que même si les LLM s’améliorent, l’approche de Maisa en matière d’IA sera largement préférée. « Il est possible que nous atteignions un stade où les gens peuvent faire davantage confiance à l’IA, mais cela soulève la question plus profonde de savoir si nous voulons vraiment céder le contrôle à ces modèles », dit-il. « L’IA peut être incroyablement efficace pour faire des choses que les humains font mal, mais très mauvaise pour certaines des choses que nous faisons bien, donc la combinaison de l’apport humain et de l’IA sera la voie à suivre. »