IA & Machine learning : Trois laboratoires en pointe

1 juin 2022

Le projet COALA porté par l’institut ANITI consiste à développer un assistant virtuel à base d’intelligence artificielle capables d’interagir avec les ouvriers des usines partenaires du projet

L’inflation des données disponibles, et la multiplication des opportunités pour enrichir des algorithmes d’intelligence artificielle, amène la recherche à développer de nouvelles méthodes de traitements de la données. En revenant à des modèles plus simples, en s’appuyant sur le machine learning notamment, plusieurs laboratoires arrivent à adresser les besoins de plus en plus d’entreprises. Portrait de trois projets de recherche portés par des laboratoires à la pointe de la recherche partenariale.

  • Institut Aniti : une IA collaborative pour développer l’autonomie des ouvriers de Whirpool

Les algorithmes de deep learning, fonctionnant avec des quantités de plus en plus importantes de données, deviennent de plus en plus complexes. Cette complexité, comme lorsqu’un algorithme doit traiter plus d’un milliard de paramètres, rend quasi impossible la compréhension de leur fonctionnement et l’explication de leur comportement. « C’est plus de l’ingénierie que de la science » souligne Nicholas Asher, directeur de la R&D de l’institut 3IA Aniti, et directeur de recherche au sein de l’Institut de Recherche en Informatique de Toulouse (Université de Toulouse/CNRS). Cette difficulté à tracer la donnée pose des problèmes d’explicabilité et d’acceptabilité. L’institut 3IA de Toulouse, un des quatre instituts labellisés en France, s’est spécialisé justement sur ces deux thèmes. Il développe notamment des approches logiques et statistiques pour expliquer le comportement d’algorithmes de machine learning : L’explicabilité basée sur la logique donne des garanties sur le comportement d’un modèle à base de machine learning (ML). Cette approche est adaptée aux algorithmes de ML plus simples. L’approche statistique permet elle d’analyser des algorithmes de ML plus complexes mais avec moins de garanties. Les chercheurs d’Aniti ont mis au point des outils capables d’alterner entre ces deux approches grâce au développement de modèles contre-factuels.

Ces outils sont au coeur du projet COntraintes, ALgorithmes et Applications (COALA). Le projet est porté par un consortium d’entreprises, dont Whirlpool, Diversey et l’entreprise italienne Piacenza, et d’acteurs académiques comme Aniti, BIBA (Bremer Institut für Produktion und Logistik ) et l’université de Delft. Il consiste à développer un assistant virtuel à base d’intelligence artificielle capables d’interagir de manière explicable et pro-active avec les ouvriers des usines. Le système basé sur l’analyse de la voie, doit ainsi pouvoir donner un avis, une prédiction, ou expliquer les raisons d’une panne en temps réel. L’objectif final est de réduire le nombre de défauts. « Les partenaires du projets pourraient économiser jusqu’à 10% du coût de production grâce à ce logiciel » souligne Nicholas Asher. Ce « bot cognitif » doit aussi être capable d’enregistrer le savoir-faire des ouvriers, notamment de ceux les plus proches de la retraite de l’usine, afin de le transmettre aux nouveaux et ainsi réduire leur temps de formation.

  • Inria Côte d’Azur : des modèles de machine learning sur mesure avec Accenture Lab

Le centre Inria Côte d’Azur est spécialisé sur trois sujets de prédilection : la biologie et santé, les données et modélisation, et la robotique collaborative. L’équipe-projet Neo est elle experte sur les problématiques d’ingénierie des réseaux. Elle s’appuie notamment sur des modèles stochastiques (traitement de données statistiques) pour étudier ces réseaux et proposer des architectures de réseaux complexes. Ce travail concerne bien entendu les réseaux informatiques, et notamment l’optimisation du traitement de la donnée dans le cadre de la mise au point de solutions d’intelligence artificielle utilisant de la machine learning.

Les recherches de Giovanni Neglia de l’équipe Neo d’Inria, se concentrent sur les réseaux distribués et les systèmes d’apprentissage à grande échelle. Ces compétences l’ont amené à étudier plus particulièrement le thème l’entrainement « distribué » des modèles d’apprentissage. « Il est de moins en moins possible d’entrainer des modèles sur des données centralisées, car le nombre de données explose et leur traitement est très coûteux ». Le chercheur développe ainsi des modèles d’apprentissage « fédéré », ne nécessitant pas de déplacer les données vers un cloud. Cette approche permet d’augmenter l’acceptabilité pour les utilisateurs, puisque leurs données parfois sensibles ne sont pas déplacées. Elle permet aussi d’entrainer des modèles sur des données réparties dans différents lieux, dans une approche « cross-silos ». Cette approche est particulièrement appréciée par les entreprises possédant différentes filiales, et donc ayant à faire face à des contraintes règlementaires différentes.

L’équipe a ainsi travaillé avec Accenture Lab sur des solutions d’apprentissage fédéré. L’équipe a notamment proposé d’abandonner une structure de communication « en étoile », et de la remplacer par des communications directes entre les différentes filiales. Cette évolution a permis d’introduire les spécificités des filiales, et d’organiser « qui devrait parler avec qui et à quel moment pour accélérer l’apprentissage des algorithmes ». Cette solution a permis d’accélérer de deux à cinq fois l’entraînement des algorithmes.

  • LS2N : des algorithmes frugaux co-construits avec les utilisateurs

Le Laboratoire des Sciences du Numérique de Nantes (LS2N) est un géant de la recherche sur les sciences du numérique. Au sein de ce vaste laboratoire de près de 500 personnes, une partie des équipes se consacre entièrement à la sciences de données. C’est le rôle de l’équipe DUKe, pour Data User Knowledge. L’équipe s’est spécialisée dans l’analyse des données hétérogènes, comme les données spatiales, graphiques, temporelles…et dans leur mise en forme pour s’adapter aux attentes des utilisateurs. Cette approche a amené les équipes à porter une attention particulière aux enjeux de privacy des données, et de performance des outils à base d’IA en matière notamment de rapidité, de transparence ou encore de confort d’utilisation.

Le chercheur Philippe Leray a centré ses recherches sur le développement d’algorithmes utilisant des modèles graphiques (représentation de probabilités entre différents objets), du type modèles bayésiens. L’avantage de ce type d’approche est de pouvoir produire des modèles simples. Il est ainsi possible de développer des algorithmes, de diagnostics ou d’aide à la décision par exemple, pour des secteurs qui produisent peu de données. Le manque de données peut éventuellement être compensé par la prise en compte d’expertises du domaine, ou plus tard par la mise à jour incrémentale du modèle, lorsque de nouvelles données sont disponibles.

L’autre grand avantage de cette approche frugale du machine learning est de pouvoir produire des modèles « explicables ». « Il est possible de comprendre le modèle en examinant sa structure et ses paramètres » explique Philippe Leray. Cette approche renforce la confiance de l’utilisateur dans l’outil. L’équipe de recherche a ainsi pu collaborer avec des utilisateurs de données sensibles, et développer, voire co-développer avec eux des outils d’intelligence artificielle. Elle a ainsi collaboré avec des psychiatres du CHU de Nantes, sur la mise au point d’outil de prévention de la récidive du suicide chez les adolescents, en s’appuyant sur les questions et les différentes catégories de réponses obtenus.

L’équipe a avance aujourd’hui sur un deuxième axe de recherche, inspiré de cette expérience avec le CHU, autour de la mise au point d’un modèle d’apprentissage « fédéré » ayant les mêmes propriétés de compréhensibilité. Ce type de méthode permet d’utiliser des données de différents patients autour d’un modèle commun, tout en protégeant ces données. D’autres secteurs, qui ont besoin de mettre en commun différents jeux de données souvent sensibles pour améliorer les algorithmes, sont également intéressés par ce type d’approches. Des projets sont en discussion dans le secteur bancaire notamment.

Retrouvez les autres actualités thématiques de poC média

Inscription Newsletter

Vous souhaitez suivre l'actualité des technologies deeptech ?

Recevez gratuitement une newsletter par semaine

Je m'inscris
Fermer