Séminaire technique pour les partenaires de la chaire NoRDF
Les questions sociétales autour des modèles de langage
Fabian Suchanek, professeur à Télécom Paris, porteur de la chaire NoRDF
Les Grands Modèles de Langage (GML), tels que ChatGPT, LLaMa, ou maintenant Mixtral, occupent une part de plus en plus importante dans notre vie et dans l’industrie. Néanmoins (ou pour cette raison) ils présentent des défis importants pour notre société: au niveau de la propriété intellectuelle, des dangers de sécurité (hacking/prompt injection), de la génération de fake news, de l’influence sur les élections, du micro-targeting, et du coût environnemental. Dans cette présentation, je donne un survol sur une vingtaine de facteurs que nous avons pu identifier, et que l’on devrait garder en tête quand on développe ou utilise des GMLs.
La vérification des modèles de langages
Zacchary Sadeddine, doctorant de la chaire NoRDF
Il est difficile de se fier complètement aux réponses des GMLs, et leur utilisation nécessite donc une vérification par l’utilisateur. Cette tâche devient plus simple si on demande aux modèles de découper leur raisonnement en une “chaîne de pensée”, i.e., en étapes intermédiaires. Nous proposons une nouvelle méthode qui peut détecter automatiquement des erreurs dans de telles chaines de pensée, basée sur les implications textuelles. Le raisonnement est effectué par un raisonneur complètement symbolique, donc complètement explicable, ce qui améliore améliore la fiabilité des GML, et permet aussi de les évaluer.