Génération ou interprétation ? — L’IA en débat

Journée d’études organisée conjointement par le laboratoire ERTIM de l’Inalco, l’Institut Ferdinand de Saussure et le collectif La Reconstruction.
Concept de transformation numérique de fond de puce de technologie d'IA
Ai technology microchip background digital transformation concept © Rawpixels / Freepik‎

Alors que des propos alarmistes et optimistes se contredisent dans les médias, cette journée d’étude entend contribuer à cerner le statut des productions des IA génératives. Elle croise pour cela les perspectives de la linguistique de corpus, de l’informatique théorique et de la sémiotique.

Les sciences de la culture sont au premier chef concernées par les productions des IA, qu’il s’agisse de textes, d’images et de musique, notamment. Leur statut sémiotique dépend pourtant de leur mode d’élaboration : or la génération automatique, même appuyée sur des corpus, diffère radicalement de la création humaine, contrainte par des discours, des genres, des contextes de genèse et d’interprétation anticipée. Les prompts pourraient-ils en tenir lieu ?

La question du sens se pose alors ainsi : est-il projection réitérée ou invention renouvelée ? Elle concerne tout autant les sciences que les arts, comme tous les secteurs de la culture.

Dans une société déspatialisée et désymbolisée que deviennent l’éducation, le droit, la médecine ? 

Au-delà des questions économiques et écologiques, pourtant prégnantes, se pose enfin la question de l’adhésion à la gouvernementalité algorithmique et au modèle de société qu’elle induit, par une inquiétante séduction propre aux courants transhumanistes.

Programme

Matin

Président de séance Jean Lassègue

9h 30-9h45 : accueil et introduction par Damien Nouvel, directeur de l’ERTIM

9h45 10h-15 : Jean Rohmer – L'informaticien est-il condamné à inventer des machines à imiter ?

10h15-10h45 : Mathieu Valette – Variation culturelle et fragmentation de l'environnement symbolique

10h45-11h : Discussion 

11h-11h15 : Pause

11h15-11h45 : Damon Mayaffre – Descriptions idiolectales et Intelligence artificielle. Que nous dit le deep learning sur les textes ?

11h45-12h15 : Laurent Vanni – Plongements de mots, Convolution et Self-attention. Prédiction, création ou description des textes par l'I.A. ?

12h15-12h30 : Discussion

Après-midi 

Président de séance : Jean Rohmer

14h-14h30 : Jean Lassègue – Le statut de l’écriture dans l’IA, ancienne et nouvelle formule

14h30-15h : Giuseppe Longo – La machine et l’animal

15h-15h15 : Discussion

15h15-15h30 : Pause

15h30-16h : François Pachet – Génération de musique: quel est le problème exactement ?

16h-16h30 : François Rastier – L’IA : ni servante, ni maîtresse ?

16h30-1645 : Discussion 

16h45-17h : Pause

17h-18h : Table ronde et discussion générale, animées par Maryvonne Holzem,, Hélène Tessier et Santiago Guillén.

18h : Cocktail

Résumés des communications

Jean ROHMER : L'informaticien est-il condamné à inventer des machines à imiter ?

Résumé. — Pour un informaticien, programmer, c'est créer. Mais ses créatures peuvent-elles elles-mêmes créer ? L'informatique, - terme peu utilisé de nos jours -, est la rencontre explosive entre une incroyable stabilité et une tout aussi incroyable dynamique. La stabilité du dessin de la machine de Von Neumann, et la dynamique de la miniaturisation des transistors, qui dessine cette machine avec des traits toujours plus fins. On envisage des traits larges de 10 atomes d'ici une décennie. Nous fabriquons ainsi un matériau réticulaire inédit, dont les dimensions vont de l'atome de diamants de silicium au diamètre de la planète sertie de câbles transatlantiques. Une éponge numérique, qui ne demande qu'à absorber tout ce qu'elle voit et ce qu'elle entend, tout ce qui se dit et tout ce qui s'écrit. Et quel jus peut bien en sortir, si l'on presse l'éponge ? C'est la question que nous pose l'apprentissage profond. Au sens habituel, une œuvre est unique. Mais en numérique, l'identité n'existe pas. Toute configuration est déplaçable, duplicable, modifiable sans délai et à l'infini. Qu'est-ce qu'une œuvre qui serait vue au plus par une seule personne, ou vue différemment par chaque personne, à travers son casque - ou son masque ? L'informaticien, pris dans ce vertige, invente des langages pour tenter de réduire le grand écart entre le sens et le silicium. Ces langages sont eux-mêmes des œuvres, parfois des chefs-d'œuvre, mais sont-ils capables de représenter les œuvres de la culture ?

Bio-bibliographie. — Jean Rohmer, Ingénieur ENSIMAG, Docteur -ès- Sciences, a débuté comme chercheur au laboratoire d'informatique de Grenoble, puis à l'Inria, dans le domaine de l'architecture des machines, et a soutenu à ces occasions une thèse de docteur-ingénieur sur les machines parallèles puis une thèse de docteur d’État sur les "machines base de données". Il a ensuite créé et dirigé les activités de recherche puis commerciales du Groupe Bull en Intelligence Artificielle. Ses équipes ont réalisé quelques-uns des plus grands systèmes-experts au monde. Il a en particulier travaillé dans le domaine de la logique appliquée aux bases de données, et a ainsi été un des initiateurs de la discipline dite "Datalog". Ensuite il a développé le logiciel IDELIANCE, au sein de la société éponyme puis de la société Thales, utilisé en particulier dans le domaine du renseignement militaire. Il a exercé des responsabilités au sein du Pôle Léonard de Vinci, et est maintenant président de l'Institut Fredrik Bull. Il poursuit le développement de IDELIANCE en tant qu'outil de "calcul littéraire".

Mathieu VALETTE : Variation culturelle et fragmentation de l'environnement symbolique

Résumé. — Quoiqu’on puisse peut-être encore quelques temps les considérer comme incommensurables avec les créations culturelles humaines, les nouveaux artefacts pseudo-culturels non humains issus des méthodes d’apprentissage profond ont ceci d’inédits qu’ils peuvent être produits à échelle industrielle et pourront bientôt surpasser en nombre les créations humaines.

Ces objets pseudo-culturels, auxquels s’ajoutent leurs pendants sociaux (profils artificiels, bots, communautés humaines à la cohésion assurée par des algorithmes, communautés de profils hybrides d’IA et d’humains, etc.) participent d’une chimérisation de l’environnement symbolique dont on évalue difficilement les conséquences à moyen et long termes : s’il est possible de générer tous les objets pseudo-culturels possibles, s’il est possible de confiner les populations dans des communautés, nous orienterons-nous vers une problématique du partage de biens culturels (communs et produitsplutôt que d’une culture commune partagée ?

La fragmentation culturelle, bien plus encore que la génération de contenus malveillants (fake news, trolls industrialisés), apparait en effet comme un des principaux dangers visibles de l’IA générative, non parce qu’elle en porterait dans son ADN les principes, mais en raison de la convergence des agendas scientifique et économique qui président à son essor. Ils reposent tous deux sur une volonté assumée de satisfaire tous les individus appréhendés comme des usagers (ou des clients). L’examen de la littérature scientifique en traitement automatique des langues atteste en effet que l’enjeu actuel n’est pas tant les performances génératives que la diversification de l’offre pour une mise en conformité culturelle des contenus aux usagers-cibles (cultureLLM, annotations perspectivistes, impact du framework professionnel DEI – Diversity, Equity, and Inclusion, etc.) car contrairement aux idées reçues, l’IA générative ne s’affranchit pas complètement de l’étape décisive du pré-traitement des données d’entrée, lesquelles conditionnent les sorties en dépit de l’opacité des traitements.

Selon cette lecture, le danger de la génération par IA ne serait pas de concurrencer l’expression culturelle humaine mais d’attenter à l’organisation sociale. Elle conduit à envisager la problématique en termes d’encerclement cognitif et l’inscrit dans le champ de la « guerre cognitive », c’est-à-dire l’étude des offensives destinées à transformer irrémédiablement la manière de penser de populations afin de les affaiblir ou les rendre sensibles à de nouvelles idées.

Bibliographie.

  • Garapon A., Lassègue J. (2021) Le numérique contre le politique. Paris : Presses Universitaires de France.
  • Harbulot, Chr. (2024) La légitimité civile de la guerre cognitive, , Ingénierie cognitique, 7-1, numéro spécial Guerre cognitive, London: ISTE OpenScience, 13-16.
  • Rastier F., (2025) L’IA m’a tué. Témoignage d’un monde alternatif, Paris, Intervalles, sous presse.
  • Valette, M. (2024) Guerre cognitive, culture et récit national, Ingénierie cognitique, 7-1, numéro spécial Guerre cognitive, London: ISTE OpenScience, 6-12.

Mathieu Valette est linguiste, professeur à l’Inalco. Ses travaux portent notamment sur les relations entre linguistique et traitement automatique des langues et la sémantique de corpus.

Damon MAYAFFRE : Descriptions idiolectales et Intelligence artificielle. Que nous dit le deep learning sur les textes ?

Résumé. — Les sceptiques n’en peuvent mais. L’intelligence artificielle des textes, dont la réalisation la plus connue est chat GPT, a envahi avec succès nos vies et nos laboratoires. 

Cependant, la machine n’a ni intelligence ni éthique. Les avatextes qu’elle produit ne sont pas fondés sur un prédicat de vérité et ne sauraient se revendiquer ni du bien, ni du beau, ni du mal. De plus, en l’absence d’intention de la machine, autre que la stochastique, le lecteur ne saurait engager un parcours interprétatif classique sur les contrefaçons textuelles générées ; et non créés.

Nos questionnements portent sur la compréhension du mode de fonctionnement des IA, condition pour évaluer les plus-values heuristiques que les traitement deep learning peuvent avoir dans l’analyse des corpus textuels : l’interprétabilité/explicabilité des modèles est la question essentielle et préalable à tout usage scientifique (vs. commercial) de l'IA. En d’autres termes, l’IA, plus que tout autre traitement automatique, « suppose une herméneutique des sorties logicielles » (F. Rastier, La mesure et le grain, Champion, 2011 : 43).

Nous plaiderons que les modèles convolutionnels (CNN) ont le pouvoir de rendre compte de l’axe syntagmatique, c’est-à-dire qu’ils exhibent les combinaisons saillantes sur la chaine des textes. Tandis que les modèles transformers ont le pouvoir de rendre compte de l’axe paradigmatique, c’est-à-dire qu’ils identifient les sélections ou les « rapports associatifs » (Le Cours, Chapitre V, pp. 170-175 de l'éd 1972) des textes en corpus. Dans les deux cas, et de manière fermement complémentaire, c’est à un effort de co(n)textualisation que nous appelons – le mot en relation syntagmatique avec son co-texte immédiat, le mot en association avec ses coreligionnaires du paradigme en mémoire ou en corpus – pour une sémantique non pas formelle mais une sémantique de corpus.

Damon Mayaffre est docteur en histoire et Chargé de Recherche au CNRS dans le laboratoire niçois de Sciences du langage. CNRS - Université Côté d'Azur - UMR 7320 Bases, Corpus, Langages

Laurent VANNI : Plongements de mots, Convolution et Self-attention. Prédiction, création ou description des textes par l'I.A. ?

Résumé. — La nature des sorties machines de l’I.A. doit s’interroger au regard des algorithmes mobilisés. Les réseaux de neurones profonds reposent avant tout sur des (hyper)paramètres qui stabilisent (par apprentissage) des résultats en fonction d’une tâche déterminée par avance (supervisée). La généralisation de cette tâche est un problème connu et non résolu par le deep learning. La prédiction d’un mot après un prompt et de proche en proche d’un texte ne doit donc pas être généralisée à la production d’une réponse mais plutôt à une illusion suffisamment crédible pour être étudiée par les Humanités.

Dès lors, il faut descendre au niveau des couches intermédiaires des réseaux de neurones profonds. Si certains (hyper)paramètres de l’I.A. représentent une combinatoire incompréhensible pour l’humain d’autres en revanche façonnent des représentations des textes qu’il est possible d’interpréter (Vanni et. al. 2018). L’I.A. peut ainsi glisser d’une tâche de prédiction vers une tâche exploratoire, descriptive des textes. Aujourd’hui, nous proposons avec une architecture de type Transformers (Vanni et. al. 2024) un moyen d’analyser les corpus d’entrainement et d’entrevoir les phénomènes statistiques en jeu dans les textes qui donnent l'illusion d'une créativité générative de type GPT.

Références :

  • Mayaffre D. et L. Vanni (éds) (2021). L’intelligence artificielle des textes : des algorithmes à l’interprétation, Paris : Champion.
  • Vanni L, Mahmoudi H, Longrée L. and Mayaffre D. (2024 in press). Intertextuality detection using Multi-channel Convolutional Transformer (MCT) in G. Giordano, M. Misuraca (eds.), New Frontiers in Textual Data Analysis, Springer.
  • Vanni L., Ducoffe D., Mayaffre M., Precioso P., Longrée D. et. al. (2018). Text Deconvolution Saliency (TDS) : a deep tool box for linguistic analysis. 56th Annual Meeting of the Association for Computational Linguistics, July 2018, Melbourne. ⟨hal-01804310⟩

Laurent Vanni est docteur en informatique et Ingénieur de recherche au CNRS dans le laboratoire niçois de Sciences du langage. CNRS - Université Côté d'Azur - UMR 7320 Bases, Corpus, Langages

François PACHET : Génération de musique : quel est le problème exactement ?

Résumé. — Depuis ses débuts, l'IA s'intéresse à la génération de musique. Nous ferons le point sur les avancées récentes en la matière avec l'objectif de tenter de définir le problème, et en argumentant que, d'une certaine manière, le problème de la génération, vu comme celui de l'exploration automatique d'un style défini par un ensemble d'apprentissage, peut être considéré comme résolu. Néanmoins, d'autres problèmes surgissent, plus difficiles et beaucoup plus intéressants car ils nécessitent de nouvelles conceptualisations de notre rapport aux goûts. D'une part, la définition d'une "qualité intrinsèque" d'une musique générée est flou, et il est en général confondu avec celui de la qualité des algorithmes de génération, ce qui rend difficile les tâches d'évaluation de ces algorithmes. D'autre part, nous montrerons que les données de popularité ne peuvent pas être utilisées comme des "ground truths" afin de réaliser le rêve de la génération de tubes. Enfin, nous montrerons comment le phénomène d'appropriation lors d'utilisation de technologies d'IA est au moins aussi important que celui de la qualité intrinsèque. Nous illustrerons ces points par différentes expérimentations et résultats obtenus depuis une dizaine d'années.

Biographie — François Pachet a été directeur de l'équipe Spotify Creator Technology Research Lab, dont le but est de développer de nouveaux outils d'aide à la création musicale. Auparavant, il a créé le label Flow Records qui a produit et diffusé le double album"Hello World", le premier album de musique pop composé avec IA. Cet album est le résultat d'une collaboration entre Benoit Carré alias SKYGGE et de nombreux musiciens autour de technologies développées pendant le projet ERC "Flow Machines". Le projet a aussi produit un pastiche des Beatles, “Daddy’s car”, généré à partir de techniques de génération Markoviennes sous contraintes.

Avant Spotify, François Pachet a été le directeur du SONY Computer Science Laboratory à Paris ou il a créé l'équipe musique, toujours active. Il est aussi guitariste (classique, jazz) et a composé et publié plusieurs albums. Son livre augmenté "Histoire d’une oreille" tente de décrire l'ontogenèse d'une oreille musicale à travers une série d'expériences d'écoute singulières.

Jean LASSÈGUE : Le statut de l’écriture dans l’IA, ancienne et nouvelle formule

Résumé. — Je voudrais tenter de décrire l’IA dans son ancienne et nouvelle formule à partir de la phrase énigmatique de Turing contenue dans son article de 1950 « Pour moi, mécanisme et écriture sont presque synonymes ». Le caractère essentiellement graphique de l’IA sera replacé dans son contexte historique et je tenterai de voir ce qu’il advient de l'écriture dans le nouveau paradigme des réseaux de neurones.

Bio-bibliographie. — Articulant épistémologie, anthropologie et histoire, les recherches de Jean Lassègue portent sur les médiations symboliques, en particulier les systèmes d'écriture des langues et des nombres, et leurs conséquences sur l’élaboration des connaissances, des sciences exactes aux sciences juridiques. Il s'interroge ce faisant en philosophe sur les conditions anthropologiques de la culture. Parmi ses publications, on notera Turing (Les Belles Lettres, 2003), Cassirer, du transcendantal au sémiotique (Vrin, 2016), avec Antoine Garapon Justice digitale (PUF, 2018) et Le numérique contre le politique (PUF, 2021) ainsi qu’un livre écrit avec Giuseppe Longo à paraître aux PUF en janvier 2025 sur le statut controversé du numérique.

Jean Lassègue est philosophe, directeur de recherche au CNRS, directeur du Centre Georg Simmel - Recherches franco-allemandes en sciences sociales (CNRS-EHESS).

Giuseppe LONGO : La machine et l’animal

Résumé. — Comme Yann Le Cun et les principaux mathématiciens qui travaillent à la nouvelle IA l'ont très bien expliqué (voir le débat au Collège de France : Le travail au XXIème siècle : Droit, techniques, écoumène), les travaux qu’ils mènent se basent presque entièrement sur des « recherches d’optima ». Il s’agit de méthodes largement empruntées à la physique mathématique (ondelettes, renormalisation...) et énormément enrichies par le talent d’une très grande quantité de chercheurs à travers le monde. L’IA dite générative, comme les Large Language Models (LLM ou ChatGPT et similaires), utilise aussi différentes théories des graphes aléatoires, qui reposent sur des méthodes d'optimalité spécifiques (optimized trade-off, maximal coupling…) conjointes à des statistiques. Dans le numérique en général, les applications vont de l'analyse et de l'administration des réseaux Internet aux applications d'IA les plus récentes, dont les LLM. Les résultats peuvent être tout à fait imprévisibles, comme la plupart des phénomènes émergents en physique. Nous esquisserons la différence entre l'imprévisibilité des nombreux phénomènes émergents décrits dans l'inerte et la production de nouveauté dans l'état vivant de la matière. Les premiers, produits sur la base de critères de maximalité ou de probabilités (le plus grand nombre de connexions, les chemins les plus courts dans un graphe… parfois avec un peu d’aléatoire ajouté de l’extérieur), obligent à suivre des moyennes ou émergent conformément à des champs moyens. On laissera à l’auditoire le soin de discuter de la comparaison possible avec la cognition animale (ou humaine). 

  • Longo G. (2023), Le cauchemar de Prométhée. Les sciences et leurs limites, Préface de Jean Lassègue, postface d’Alain Supiot. PUF, Paris. 
  • Lassègue J., Longo G. (2024). L’alphabet de l’esprit. Critique de la raison numérique. PUF, Paris, à paraître).

Biographie — Giuseppe LONGO est Directeur de recherche émérite (DRE) au CNRS, rattaché au centre interdisciplinaire Cavaillès de l’École Normale Supérieure (ENS) à Paris. Membre du département de mathématiques puis d’informatique de l’ENS, il était auparavant professeur de logique mathématique puis d’informatique à l’Université de Pise. Il a été pendant trois ans chercheur et professeur invité aux États-Unis (successivement à Berkeley, au MIT et à Carnegie Mellon) ainsi que plusieurs mois à Oxford (GB) et Utrecht (NL). De 1990 à 2015, il a fondé une revue scientifique majeure de l’Université de Cambridge, Mathematical Structures in Computer Science et en assuré la direction. Il a également fondé deux collections d’épistémologie orientées vers les mathématiques et les sciences de la nature. Il est le co-auteur d’une centaine d’articles et de cinq livres, dont plusieurs en collaboration avec des physiciens, des biologistes et des philosophes. Son projet actuel consiste à développer une épistémologie des nouvelles interfaces explorant les alternatives à la nouvelle alliance entre formalismes computationnels et gouvernance de l’homme et de la nature par les algorithmes et les méthodes d’« optimalité » qui se prétendent objectives.

 Centre Cavaillès, République des Savoirs, CNRS et Ecole Normale Supérieure, Paris,

voir aussi :

François RASTIER : L’IA : ni servante, ni maîtresse ?

Résumé. — Dans le discours mystifiant et sans doute mythique qui l’entoure, l’Intelligence Artificielle réunit trois thèmes majeurs de notre présent : la post-vérité, car elle contribue à générer et propager des fakes, textes, voix et images, pour créer un monde factice ; les données obscures qui constituent les corpus d’apprentissage des systèmes d’IA connexionnistes ; enfin, par le biais d’une simulation, le projet transhumaniste d’une fusion entre cerveau et machine, intelligence « naturelle » et « intelligence » artificielle.

Or les données ne sont pas ou ne devraient pas être des datasets couverts par le secret industriel, mais ce qu’on se donne — ce devrait du moins être le cas en linguistique de corpus et dans l’ensemble des sciences de la culture. En effet, le travail d’analyse commence toujours par la qualification des données comme telles, ne serait-ce que par la qualification et la délimitation du corpus d’étude. Aucune évidence ne préside à la qualification des données : ainsi, la liste des mots absents dans un texte, obtenue par comparaison avec les autres textes du même corpus, est une donnée de première importance, et cependant elle n’apparaît à personne à première lecture et ne correspond à aucune chaîne de caractères qui puisse être isolable par un word-cruncher ou devenir un token.

En d’autres termes, les datasets des grands systèmes d’IA générative ne peuvent aucunement remplacer des corpus, ni même permettre de les analyser. En revanche, des systèmes d’apprentissage sur corpus peuvent parfaitement aider à décrire des régularités locales. Encore faut-il affronter le problème de l’explicabilité des résultats, qui conditionne évidemment leur amélioration.

A partir de l’exemple de la linguistique, l’exposé abordera des questions comme :

  • Les data contre les corpus ? Les textes artificiels : quel est leur régime herméneutique ?
  • Sciences outillées ou connaissance artificielle ? L’IA sert-elle à objectiver ce monde ou lui en substituer un autre ?

Bien que les technologies brillantes de l’IA générative soient exploitées et biaisées à leur profit par les grandes entreprises de l’Internet et divers acteurs plus dangereux encore, elles peuvent être mises à profit par les sciences de la culture, en discernant génération et interprétation d’une part, génération et création d’autre part.

Principales références : Numéro spécial de Langages, Sémantique et intelligence artificielle (1987), Sémantique et recherches cognitives (PUF, 1991), L’analyse sémantique des données textuelles (dir. Didier, 1995), La Mesure et le Grain. Sémantique de corpus(Champion, 2011), « Data vs Corpora », in Mayaffre et Vanni, dir., L’intelligence artificielle des textes (Champion, 2023), L’IA m’a tué. Témoignage d’un monde alternatif(Intervalles, Paris, à paraître).

Biographie. — François Rastier, Directeur de recherche honoraire au CNRS, est associé à l’équipe de recherche Texte, Informatique, Multilinguisme de l’Inalco (Paris). Il préside l’Institut Ferdinand de Saussure et co-anime son programme La Reconstruction. Il a commencé la recherche au CNRS sur un poste Sémantique et IA, au Laboratoire d’Informatique et de mécanique pour les sciences de l’ingénieur (Orsay, 1983-1993), puis s’est spécialisé en sémantique de corpus. 

Table ronde et discussion générale, avec la participation de Maryvonne Holzem, linguiste (Université de Rouen), Hélène Tessier (juriste et psychanalyste, Université Saint Paul, Ottawa), Santiago Guillén (sémioticien, laboratoire ICAR, Université de Lyon 2).