
Photographie Louise Allavoine, issue de la série "Miroir aux algorithmes"
UNE SÉRIE SUR L'IA / 08 L'IA peut-elle influencer nos comportements ? Chargé de recherche en informatique au CNRS à Toulouse, Gilles Trédan travaille notamment sur les algorithmes, prédictifs ou de recommandation, dont se servent les plateformes en ligne. A la médiathèque de Castres, en mars 2024, il a répondu aux questions d’élèves de 3ème du collège René Cassin de Vielmur-sur-Agout.
En tant que chercheur en informatique, à quoi vos ressemblent vos journées de travail ?
Gilles Trédan. Je n’ai pas vraiment de journée type. Sur une année, mon activité se découpe en trois grandes tranches : la recherche, l’enseignement, et des tâches administratives. Le Centre national de la recherche scientifique est une grosse institution publique de recherche au sein de laquelle travaillent beaucoup de personnes sur un grand nombre de sujets différents. Pour ma part, je travaille effectivement sur l’informatique, en m’attachant aux aspects théoriques. Cela consiste essentiellement à produire des articles scientifiques, que l’on appelle entre nous des "papiers", qui vont présenter un problème particulier ou une nouvelle approche sur tel ou tel sujet. Une grosse partie de mon temps consiste à écrire ces "papiers", en collaboration avec d'autres chercheurs qui ont une problématique commune.
"L’IA est comme une boîte noire, on ne sait pas ce qu’il y a à l’intérieur"
En quoi consiste votre recherche sur l’IA ?
Gilles Trédan. Beaucoup de personnes travaillent à rendre l’IA plus performante, plus efficace et moins coûteuse à entraîner. Pour ma part, je cherche plutôt à comprendre comment fonctionnent les IA et les objets qui leur sont liés. L’intelligence artificielle est basée sur des « systèmes d’entraînement » qui vont pouvoir générer un « comportement ». Dans un système informatique classique, on va donner à l’ordinateur des fonctions impératives, par exemple trier un tableau de données ou une bibliothèque par ordre alphabétique. Il est facile de définir la série d'actions qui vont permettre de réaliser une telle tâche. Le mode comparatif est plus complexe. Par exemple, déterminer sur des photos les personnes qui sourient et celles qui sont tristes. Là, il va falloir fournir au système informatique le plus possible d’images de personnes souriantes ou tristes, de façon à ce qu’il puisse intégrer ces données afin de pouvoir se représenter tel ou tel comportement. Mais on n’a jamais dit explicitement à l’IA ce qui caractérise une personne qui sourit et une personne qui semble triste. Elle va en quelque sorte le découvrir et l’apprendre toute seule.
L’IA est comme une boîte noire, on ne sait pas ce qu’il y a à l’intérieur. J’essaie de comprendre comment ça fonctionne. C’est ensuite ce que l’on applique aux plateformes en ligne comme Google ou Amazon. On va aussi essayer de comprendre comment YouTube apprend qu’il a à faire à un enfant ou à un adulte. Comment l’IA apprend-elle de notre comportement ?
"L'intérêt des algorithmes prédictifs, pour les plateformes en ligne, c’est surtout de savoir ce qu’elles peuvent nous vendre en sachant ce qu’on a déjà consommé"
Comment fonctionne un algorithme prédictif ?
Gilles Trédan. Comme son nom l’indique, c’est un algorithme qui peut faire une prédiction. Cela nous sert à étudier des données difficiles à obtenir (sourire, tristesse…) à partir de données faciles à obtenir, comme des photos de personnes. Cela pourrait être utile, par exemple, dans le dépistage du cancer du poumon, en rentrant, à partir d’un questionnaire, les données d’un patient (son mode de vie, ses antécédents médicaux, son poids, sa taille, son pouls, etc.). Une machine pourrait traiter toutes ces données de façon à estimer les risques de cancer, et éviter une opération quand ce n’est pas nécessaire.
Mais l’intérêt des algorithmes prédictifs, pour les plateformes en ligne, c’est surtout de savoir ce qu’elles peuvent nous vendre en sachant ce qu’on a déjà consommé. Le principe de base de l’IA prédictive du système de recommandation de ces plateformes, c’est d’observer le goût des gens et d’établir des schémas que se répètent, afin de prédire, par exemple, les contenus que l’on va apprécier.
Ces algorithmes peuvent-ils influencer nos goûts culturels, nos pratiques de consommation ?
Gilles Trédan. Les algorithmes de recommandation sont devenus essentiels. Une plateforme comme YouTube, par exemple, va mettre en avant tel ou tel contenu en fonction de ce que YouTube croit savoir de vos goûts et centres d’intérêt. J’ignore combien de nouvelles vidéos sont postées chaque jour sur YouTube ; ce sont des algorithmes et des serveurs qui "font le tri". Mais on ne sait pas comment fonctionnent ces algorithmes, comment ils font leur choix et comment ils orientent leur décision, avec le risque que certains films ou contenus soient exagérément promus au détriment d’autres. Ce sont des systèmes extrêmement complexes et quasiment plus personne ne comprend vraiment comment ça marche.
Un réseau social comme Twitter n’a pas été conçu pour le bien de l’humanité, c’est une entreprise commerciale qui cherche à faire du profit et a donc intérêt à ce que ses utilisateurs y passent le plus de temps possible. Pour maximiser cet "engagement", l’algorithme va mettre en avant des contenus qui font réagir. Du coup, des opinions modérées vont beaucoup moins apparaître que des messages très polarisants, clivants, polémiques.
Un autre problème, c’est le "pouvoir d’agenda". Lors des émeutes dans les banlieues, l’été dernier, les émeutiers se filmaient et échangeaient des informations quasiment en temps réel par le biais des réseaux sociaux. Auditionnés par le Sénat et l’Assemblée nationale, Twitter et Tiktok ont reconnu avoir supprimé en moins de 24 h tous les messages considérés comme des appels à l’émeute. Est-ce une bonne chose ou pas ? C’est un débat de société, très politique. Mais est-ce le rôle d’un prestataire privé de décider quel mécontentement a ou n’a pas le droit de s’exprimer dans la sphère publique numérique ?
Quels sont les outils d’auto-régulation ?
Gilles Trédan. La partie de nos existences qui est confiée à la sphère numérique n’a cessé d’augmenter. On a longtemps considéré que le numérique, c'était du virtuel, qui n'avait pas de prise sur le monde et la société. La société n’a pas développé de système pour gérer le comportement des gens en ligne.
"Les acteurs privés entendent garder leur liberté et souhaitent gérer seuls le marché"
Pendant ce temps, les plateformes ont globalement connu trois phases : dans un premier temps, elles ont nié les problèmes, puis dans les années 2010-2015, des travaux sont venus documenter un certain nombre d’anomalies. Une étude assez marquante a concerné COMPAS, un système américain de prédiction visant à prédire le risque de récidive d’un détenu, qui était utilisé par les juges pour se prononcer sur l’octroi ou non d’une liberté conditionnelle. Or, aux États-Unis, on s’est rendu compte que pour deux individus qui avaient exactement le même profil judiciaire, mais dont l’un était blanc et l’autre noir, COMPAS prévoyait pour le détenu noir un risque de récidive nettement supérieur. Un autre article a montré qu’une IA utilisée pour trier des CV en vue d’une embauche, avait tendance à écarter des personnes selon leur genre (moins de femmes) ou leur couleur de peau… Tout cela a mis en lumière la nécessité de réguler ces outils d’IA.
Mais les acteurs privés entendent garder leur liberté et souhaitent gérer seuls le marché. Leur stratégie a alors été de dire qu’ils allaient s’auto-réguler, en développant des procédures internes. En anglais, on appelle « Soft Law », en opposition à la « Hard Law » (la loi, le code pénal, le code civil) où il reviendrait à la justice de se prononcer sur telle ou telle infraction et de décider des peines encourues. Cette notion d’auto-régulation a été en vogue entre les années 2015 et 2021. A titre personnel, je pense que c'est une vaste plaisanterie. Les entreprises se dotent certes d'une charte éthique mais dans les faits, ça n’a pas beaucoup de conséquences. Ainsi, Google avait engagé des chercheurs très impliqués dans la régulation de ces problèmes de biais et de discrimination raciale. Mais deux de ces chercheuses, Timnit Gebru et Margaret Mitchell, ont commencé à écrire et prendre des positions qui ne plaisaient guère à la maison-mère. Google les a virées en 2021…
A présent, on parle beaucoup plus de régulation forte, l'Europe est en train de légiférer là-dessus. Mais les critères et les outils nécessaires à cette régulation restent à inventer. On pourrait faire un parallèle avec le code de la route. Avec la progression du nombre de voitures et l’augmentation de leur puissance, le gouvernement a d’abord appelé à la prudence sur les routes avant de devoir imposer des normes (port de la ceinture de sécurité, limitations de vitesse, alcootest, etc.). On a mis en place tout un système de régulation forte. Avec l’IA et les plateformes en ligne, on est encore très loin. Mon travail, c’est de contribuer à inventer, pour l’IA, le "radar" qui va "mesurer la vitesse", pour pouvoir établir une mesure la plus objective possible, la plus scientifiquement correcte, afin que le régulateur puisse ensuite définir quels acteurs, et dans quel contexte, devraient de voir imposer une "limitation de vitesse".

Les collégiens de René Cassin (Vielmur-sur-Agou) lors de l'interview (vidéo) avec Gilles Trédan. Photo Jean-Marc Adolphe
Puisque vous parlez de vitesse, on a l’impression qu’avec l’arrivée d’outils comme ChatGPT, dont se saisit le grand public, l’IA est entrée dans une phase d’accélération. Comment appréhendez-vous cette vitesse de développement ?
Gilles Trédan. Ces outils vont profondément modifier la structure de nombreux fonctionnements dans notre société, et ils vont sans doute engendrer des problèmes majeurs. Avec l’exemple que je prenais de la sécurité routière, la nécessité de réguler la vitesse n'allait pas à l'encontre du besoin pour les constructeurs de vendre des voitures : si des gens mourraient dans leur voiture, c'était effectivement un problème. Il y avait un désir convergent entre les industriels impliqués et la société.
"Derrière des entités en vogue comme Google, Amazon ou Facebook, il y a une grosse question boursière, ce pourquoi elles s’emploient à faire beaucoup de communication"
Avec l’IA, c’est un peu plus compliqué. Derrière des entités en vogue comme Google, Amazon ou Facebook, il y a une grosse question boursière, ce pourquoi elles s’emploient à faire beaucoup de communication. Vont-elles réussir à transformer en argent toutes les données qu'elles collectent, à bien prédire les comportements et faire tout un tas de choses qu’elles promettent ? Certes, elles y arrivent en grande partie, mais c’est d’abord un objectif commercial. Il y a donc superposition d'intérêts financiers et de questions scientifiques légitimes. Personne n'a vraiment de vision d'ensemble…
Il y a cette crainte de l'IA qui deviendrait plus intelligente que l'humain et qui pourrait le remplacer. Mon sentiment est qu'on n'y est pas encore ! En revanche, je suis très inquiet quant à l'impact de l'IA sur la société. Par exemple, sa capacité à générer du texte à la volée : va-t-on continuer à écrire de la même manière et quel sera notre rapport au langage, à l'écriture ? En lisant un texte, arrivera-ton à savoir si c'est le texte d'un être humain, ou celui d’une machine ? Et alors, comment va évoluer notre société démocratique, qui est basée sur le fait de pouvoir partager des opinions ? Ce sont des problèmes majeurs pour lesquels on n'a encore aucune solution de régulation.
Face à cela, il faut quand même souligner le dynamisme de la recherche. Il y a par exemple un réseau scientifique qui est très en vogue, intitulé ELLIS (en anglais, "European Laboratory for Learning and Intelligent Systems", Laboratoire européen pour l'apprentissage et les systèmes intelligents), qui se concentre notamment sur l’étude des réseaux de neurones. Rien que cette année, ce réseau a accepté 3.500 communications scientifiques. C’est un volume d’informations considérable, que personne n’a le temps de lire en entier.
Pour ma part, en tant que chercheur, j’essaie de me placer à l'extérieur de la « boite noire » de l’IA, et d’étudier le rapport de force entre ceux qui possèdent la boite noire, qui savent ce qu'il y a à l'intérieur, et ce que nous, on peut en savoir de l'extérieur, par l'observation. La moitié de mon travail consiste à montrer qu'il y a des choses qu'on ne saura jamais sur ces boites noires. Cela soulève donc plus de questions que ça n’apporte de réponses…
Propos recueillis à la médiathèque de Castres, le 8 mars 2024, par les élèves de 3ème1 du collège René Cassin (Vielmur-surAgout)

Jean-Marc ADOLPHE, rédacteur en chef des humanités, et la photographe Louise ALLAVOINE ont été les deux invités de la 6ème résidence journalistique FLUX, portée par l'association Média-Tarn (sous la responsabilité de Myriam BOTTO) qui s’est déroulée d’octobre 2023 à octobre 2024 sur le territoire tarnais, entre Albi, Vielmur-sur-Agout, Castres, Graulhet et Gaillac.
Une centaine de collégiens ont été parties prenantes, dans ce cadre, d’une enquête participative visant à questionner les enjeux et les limites des outils de l’intelligence artificielle : une classe de 3e du collège René Cassin à Vielmur-sur-Agout, une autre du collège Honoré de Balzac à Albi et une classe de 4e du collège Jean Jaurès à Albi. Ont aussi été impliqués dans l’ouvrage leurs enseignants bien sûr mais aussi des enfants et adolescents accueillis au sein d’un ALAE (Amicale laïque à Graulhet) et d’une MJC (Técou), des adultes fréquentant des lieux de culture, de partage et de convivialité du territoire comme des médiathèques (Castres, Gaillac, Graulhet), un Tiers-Lieu (M à Graulhet), un Fablab (Association ACNE, Albi), des cinémas (Cinéma Arcé à Albi, cinéma Vertigo à Graulhet) …
—
De ce processus au long court, sont nés deux objets :
MIROIR AUX ALGORITHMES, une série de 21 photographies : avec Louise ALLAVOINE à la prise de vue, la centaine de collégiens impliquée dans l’enquête a cheminé dans un processus de mise en scène photographique, pensé en écho aux interviews réalisées avec l’accompagnement du journaliste Jean-Marc Adolphe. Regarder en face le procédé logique et automatisé qu’est l’intelligence artificielle pour le mettre en réflexion, le faire rimer avec humanité, le contextualiser et en nuancer la portée, tels ont été les fils à tisser de la série MIROIR AUX ALGORITHMES.
la REVUE FLUX 23-24, un magazine de 64 pages qui donne à lire une diversité de points de vue et de sujets ayant trait à la façon dont les intelligences artificielles s’expriment dans nos quotidiens. La rédaction des articles qui y sont compilés a été confiée à Jean-Marc Adolphe. Ce dernier a engagé le travail rédactionnel à l’issue d’une étape préparatoire qu’il a menée en classe avec les collégiens impliqués. Cette étape a consisté en un travail de dérushage et de hiérarchisation des informations recueillies au cours des entretiens organisés par Média-Tarn et conduits par les élèves. La revue comporte également un portfolio permettant de découvrir l’intégralité de la série MIROIR AUX ALGORITHMES.
Pour télécharger en PDF la revue FLUX (64 pages), ci-dessous :
—
Et pour clôturer la résidence, Jean-Marc ADOLPHE a livré cinq chroniques issues des réflexions construites autour des intelligences artificielles au cours de son séjour dans le Tarn, enregistrées et diffusées du lundi 14 au vendredi 18 octobre par Radio Albigés.
A écouter en podcast ici : https://hearthis.at/radio.albiges/set/ia-co/
La résidence journalistique FLUX a été possible grâce à l’implication de nombreux acteurs sur le territoire et de celles de professionnels, chercheurs, experts, concernés de très près par les intelligences artificielles ou non.
L’action a bénéficié du soutien du Conseil départemental du Tarn et de la DRAC Occitanie dans le cadre de son appel à projet Éducation aux médias et à l’Information.
Parce que vous le valez bien, les humanités ce n'est pas pareil. Uniquement composé avec l'intelligence humaine. Pour soutenir, dons (défiscalisables) ou abonnements ICI
Comments