
Les premiers pas chaotiques de l'I.A. Lucie
Le 23 janvier 2025, la société française Linagora dévoilait à grand renfort de communication son intelligence artificielle nommée LUCIE. Ce modèle de langage élaboré dans une démarche open source était rendu accessible au grand public pour une phase d'expérimentation d'un mois. Malheureusement, deux jours seulement après son lancement, les critiques acerbes et moqueries des internautes ont contraint les concepteurs à suspendre temporairement l'accès à la plateforme.
LUCIE, présentée comme une IA générative adaptée à des usages éducatifs, s'est rapidement retrouvée sous le feu des critiques. Des utilisateurs ont partagé des exemples de réponses absurdes, voire choquantes : de l'incapacité à résoudre des opérations mathématiques simples à des propos inacceptables tels que la défense de discours haineux. Ces dérives ont suscité une indignation générale, notamment après qu'un formateur en réseaux sociaux, Vincent Flibustier, ait exposé une interaction où LUCIE reproduisait des discours antisémites de façon désinvolte.
Des failles liées à une absence de garde-fous
Les créateurs de LUCIE, tout en reconnaissant ces défaillances, ont expliqué que leur IA était encore à un stade expérimental. Dépourvue de dispositifs systématiques de modération et faiblement optimisée pour interagir avec des humains, LUCIE n'était pas prête à être exposée au grand public. Alexandre Zapolsky, co-fondateur de Linagora, a admis que l'enthousiasme avait pris le pas sur la prudence : « Nous avons maladroitement ouvert le service, pensant qu'il intéresserait uniquement notre communauté technique ».
Un projet éthique mais précipité
LUCIE s'inscrit dans une démarche ambitieuse visant à créer une intelligence artificielle générative 100% open source et éthique. Soutenue par le consortium OpenLLM-France dans le cadre du plan d'investissement France 2030, cette IA avait pour objectif de réduire la dépendance technologique à l'égard des grands acteurs étrangers. Cependant, les experts estiment que la stratégie de déploiement n'était pas adaptée. Anis Ayari, ingénieur en IA, plaide pour des expérimentations fermées avant toute mise en ligne publique.
Malgré ces maladresses, certains analystes, comme le sociologue Yann Ferguson, rappellent que les débuts d'autres IA génératives, notamment ChatGPT, n'ont pas été sans embûches. Ces premières phases d’apprentissage permettent souvent d’améliorer les modèles grâce aux retours des utilisateurs.
Des critiques sur les liens politiques
En marge des critiques techniques, Linagora a également fait face à des accusations liées à ses présumés liens avec Emmanuel Macron. Certains internautes ont exhumé un article de presse de 2017 mentionnant le soutien financier d'Alexandre Zapolsky à la campagne présidentielle du chef de l'État. Une polémique que le cofondateur de Linagora a cherché à dissiper en insistant sur l'indépendance totale du projet vis-à-vis de l'État.
... et après ?
Malgré cet épisode tumultueux, Linagora et ses partenaires prévoient de poursuivre le développement de LUCIE. L'équipe entend revoir sa stratégie de communication et renforcer la collaboration avec la communauté scientifique pour améliorer les performances du modèle. Un appel à la création d'un corpus francophone open source plus consistant a été lancé afin de pallier le manque de données d'entraînement.
Pour l'instant, la plateforme LUCIE reste suspendue. Ses concepteurs appellent au respect du travail des chercheurs, rappelant que l'objectif final est de proposer une alternative éthique et transparente dans le domaine de l'IA générative. Reste à voir si LUCIE saura surmonter ces débuts chaotiques pour s’imposer comme une référence française en matière d’IA open source.
Sources multiples :
Commentaires (0)
Connectez-vous pour commenter.