Comprendre les mécanismes qui régissent le monde…

Slide/miniature de la conférence "TESCREAL, déconstruisons l'idéologie des géants du numérique"

L’idéologie des géants du numérique (conférence JDDL)

Difficulté : 3/5

Dans le cadre des Journée du Logiciels Libres j’ai donné une conférence sur l’idéologie des géants du numérique actuel. Je vous encourage à voir le replay sur Peertube, d’autant plus que j’y étais en tant que membre de Skeptikon[1]Skeptikon est une association de diffusion de la pensée critique et des logiciels libre. Elle regroupe des vulgarisateur·ices vulgarisant la démarche scientifique sous diverses formes et … Continue reading.

La communauté épistémique TESCREAL

Le point de départ est quand je me suis intéressé à la recherche sur les IA fortes. De nombreuses entités dans le secteur du numérique visent aujourd’hui à créer une Intelligence artificielle générale (IAG, parfois appelé « IA forte »), un système fictif possédant une intelligence surpassant tout ce que nous avons connu jusqu’à présent. Sans trop se questionner sur la viabilité et de l’importance de l’élaboration d’un tel dispositif, les scientifiques aspirent à concevoir une « IAG sûre » et « profitable à l’humanité dans son ensemble ». Contrairement aux systèmes conçus pour des applications spécifiques, qui peuvent être jugés sur la base des normes d’ingénierie classiques, il est globalement impossible de tester correctement la sécurité des systèmes non définis comme l’IAG. Pour le dire autrement : des entreprises veulent créer des entités surpuissantes sans savoir si elles seront bénéfiques ou catastrophiques. Dans le même temps, des experts du sujet mettent en garde sur l’importance capitale de réguler le secteur des nouvelles technologies, notamment l’IA, pour s’assurer qu’elles soient éthiques. Année après année, de plus en plus de monde comprennent qu’une IAG mal intentionné serait une catastrophe pour l’humanité. Malgré ça, pourquoi la création d’IAG est-elle fréquemment dépeinte comme un but indiscutable dans le secteur de l’IA ?

Un premier élément de réponse m’est arrivé lorsque j’ai découvert un concept, puis un article dédié : TESCREAL. Cette conférence est née de la lecture d’un article de Timnit Gebru et Émile P. Torres.

https://firstmonday.org/ojs/index.php/fm/article/view/13636

Cet article défend l’idée que le cadre normatif dominant ces recherches en IAG puise ses origines dans la tradition eugéniste anglo-américaine du XXe siècle. Ainsi, beaucoup des préjugés discriminatoires qui motivaient les eugénistes dans le passé (tels que le racisme, la xénophobie, le classisme, le capacitisme et le sexisme) continuent d’exister au sein du mouvement pour la création de l’IAG. Conscient des risques existentiels pour l’humanité de leur sujet les acteurs de ce système tentent de les utiliser pour attirer à eux des financements, notamment publics. Cela engendre des systèmes qui portent préjudice aux groupes marginalisés et concentrent le pouvoir, tout en se servant du discours de la « sécurité » et du « bénéfice pour l’ensemble de l’humanité » pour esquiver toute responsabilité.

Le cadre normatif serait inspiré par plusieurs idéologies et communauté de pensée, formant ensemble l’acronyme TESCREAL : transhumanisme, extropianisme, singularitarisme, cosmisme, rationalisme, altruisme efficace[2]Lors des Rencontres de l’esprit Critique REC2025 j’ai animé une table-ronde sur le sujet de l’altruisme efficace. J’espère que le replay sortira un jour, mais j’ai notamment expliqué que … Continue reading et long-termisme. Plusieurs chercheurs du secteur ont commencé à reprendre le terme, ou une analyse similaire : Ahmed, et al. (2024), Devenot (2023), Zuckerman (2024). Une confusion récurrente est de considérer ce terme comme « mettant dans le même sac des courants de pensée divers, beaucoup trop larges et/ou anciens », comme si les chercheurs en philosophie appliquée pensaient que le rationalisme était né vers les années 2000. Ce n’est évidemment pas le cas, j’ai souhaité le faire comprendre en faisant du bundle TESCREAL une description de la communauté épistémique qui mène la recherche sur l’IAG aujourd’hui [3]On aurait aussi pu aussi regarder les liens entre la recherche en IA et les sciences coloniales/eugénistes : McQuillan, 2022; West, 2020; Katz, 2020; Ali, 2019.

Emanuel Adler et Peter Haas (1992) définissaient une communauté épistémique comme un groupe de personnes partageant :

  • 1/ un ensemble commun de croyances normatives, des principes qui justifient une action.
  • 2/ des croyances causales partagées, un ensemble central de problèmes dans leurs domaines, les actions politiques possibles et les résultats souhaités.
  • 3/ des critères de validité épistémologique partagées
  • 4/ une démarche politique commune.

Mon objectif était ainsi de décrire quel était l’imaginaire des géants de la tech, des décideurs qui mènent ces recherches et d’où est-ce que ça vient dans l’histoire des idées. J’aurais pu en rester là, mais un élément vient complexifier la chose. Je me retrouve à ne pas être d’accord sur le concept central de ma future conférence. Dans cet article, Torres et Gebru disent :

« Bien que nous ne prétendions pas que l’ensemble des idéologies TESCREAL constitue spécifiquement la base d’une communauté épistémique, nous affirmons que ces idéologies doivent être comprises comme une sorte d’unité familiale cohésive. »

Ce refus de considérer le bundle comme une communauté épistémique, et au contraire une idéologie transversale -voir une religion- c’est un point avec lequel je suis en désaccord[4]Pour faire simple, la méthode de recherche de l’article était de partir de l’analyse des discours de premières mains au sujet de l’AGI, en tirant ensuite le fil des idéologies, celles … Continue reading. Et c’est même ce qui va venir braquer beaucoup de personnes : elles se reconnaissent dans certains termes et refusent de se voir associer au projet idéologique décrit par l’article. Ainsi, parler de communauté épistémique plutôt que d’idéologie permet d’éviter de confondre le projet philosophique et l’application qui en est faite actuellement par certain.

L’imaginaire de l’inévitable évolution technologique

Dans mon article 50 nuances de rationalité, j’explique que se revendiquer rationnel ne veut pas dire grand-chose, parce que ça peut prendre trop de sens différents. Mais dans un cadre d’argumentation, de communication d’entreprise, ce flou est une aubaine. Sans vraiment préciser comment, se faire passer pour quelqu’un qui « fonde son action sur les sciences, les données robustes » ça marche bien. Se faire passer pour quelqu’un de « tellement rationnel » que les données permettent de choisir sans aucune idéologie ça permet de se crédibiliser. En décrivant cette stratégie vous comprenez que je ne parle pas du courant philosophique du Rationalisme, mais de stratégies de travail des imaginaires. Peut-être qu’a moyen terme je trouverais un terme moins confusant pour parler du sujet, mais pour l’instant je n’en ai pas trouvé.

Un élément majeur de ma réflexion est que j’ai assisté cette année à un séminaire de recherche sur les enjeux de l’habitabilité et des missions spatiales. Des chercheurs et chercheuses, en info-com ou en sociologie, venaient parler d’un aspect de l’imaginaire autour de la conquête spatiale. Vous pouvez d’ailleurs voir les replays passionnants sur Youtube :

Et un élément qui revenait souvent, outre le fait qu’Elon Musk a du pouvoir, c’est la question de l’imaginaire de l’inévitable évolution technologique. Une stratégie récurrente est de parler de la recherche technologique comme déterminé à aller dans un certain sens, comme si elle se produisait sans action humaine particulière. Il n’y aurait pas un choix d’aller sur la Lune ou sur Mars : l’humanité serait destinée à toujours explorer, ça serait inscrit jusque dans son ADN. Et pour ça il ne faudra pas lésiner sur les moyens, et ne rien s’interdire sur les questions d’éthique : pourquoi vouloir aller à l’encontre de notre destiné manifeste ?

Vous voyez l’objectif : si on arrive à imposer cet imaginaire de l’inéluctable, les propositions comme celles qui proposent de modifier l’ADN humain pour faciliter la colonisation spatiale future deviennent bien plus acceptables. Pendant qu’on en est à réfléchir sur les dérives potentielles, on ne regarde pas trop les problèmes actuels de la conquête spatiale, et on ne se demande pas si le prix que ça fait peser sur l’argent public est le plus justifié.

J’ai alors réalisé la cohérence des investissements fait par Elon Musk : il crée des projets dans le trans-humanisme (Neuralink), dans le spatial (SpaceX), dans la recherche en IA (xAI) et travaille l’imaginaire public (rachat de Twitter, fascisation de Grok, Future of Life Institute). Ce n’est pas un hasard : il est juste le produit d’un imaginaire décrit dans le bundle TESCREAL, un imaginaire fait d’humain augmenté par l’IA qui vont coloniser l’espace. Le tout pouvant être rendu justifiable avec un discours « evidence-based investissement positif », on aurait des preuves que c’est à des milliardaires comme lui qu’on doit confier l’argent public, il saura en faire un usage les plus efficaces.

Je le redis une fois de plus : les communautés se revendiquant de l’altruisme efficace ou du rationalisme sont bien trop diverses pour en dégager un ensemble cohérent, ou du moins suffisamment pour former une idéologie au sens où on l’entend en sciences politiques. Ce concept de communauté épistémique est beaucoup plus pertinent selon moi pour expliquer qu’au-delà des différences partisanes, la vision du monde qui mène aujourd’hui la danse dans la recherche sur l’IA, l’humain augmenté et la conquête spatiale c’est ce qui est décrit via le bundle TESCREAL. Les cadres de Google, Meta et OpenIA ne sont pas aussi fascistes que Musk, mais peuvent fonder leur action sur les mêmes stratégies, et c’est en cela qu’il me paraissait important de décrire ce travail des imaginaires. De notamment rappeler qu’il n’y a rien de déterminé dans l’évolution de l’humanité, et que participer dans la course aux innovations comme les IAG est un choix qu’on peut décider collectivement de ne pas faire. Qu’on peut refuser de donner du pouvoir à des mégalomanes virilistes qui projettent leurs lubies comme étant « la meilleure chose pour l’humanité » alors qu’il ne s’agit qu’un projet autoritaire de plus.

Dans la conclusion de la conférence, je parle des possibles communautés alternatives à celle du bundle TESCREAL. Je parle surtout du logiciel libre parce que c’était le thème de l’événement, mais j’aurais pu parler de projets comme Tournesol, Pol.is, Decidim, Agora Citizen, et bientôt la SCIC Studios : il y a des projets numériques qui placent la démocratie au centre de leurs objectifs. Il existe même suffisamment de débats au sein des mouvements trans-humanistes et de l’altruisme efficace pour que le bundle explose de l’intérieur.

Pour le reste, soit il faut attendre, soit vous pouvez en débattre en commentaire.

Sources de la conférence :

  • Ahmed Shazeda, Jazwinska Klaudia, Ahlawat Archana, Winecoff Amy, and Wang Mona, 2024. “Field-building and the epistemic culture of AI safety,” First Monday, volume 29, number 4. https://firstmonday.org/ojs/index.php/fm/article/view/13626
  • Ali Syed Mustafa (2019) “‘White crisis’ and/as ‘existential risk,’ the entangled apocalypticism of artificialintelligence,” Zygon, volume 54, number 1, pp. 207–224.
  • Beaudouin, V. et Velkovska, J. (2023). Enquêter sur l’« éthique de l’IA » Réseaux, 240(4), 9-27.
  • Gebru, T., & Torres, Émile P. (2024). The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. First Monday, 29(4). https://fIrénéestmonday.org/ojs/index.php/fm/article/view/13636
  • Guéraud-Pinet, G. (2022). « Formes et traitement médiatiques d’explorations La médiatisation des origines de la vie et la vie extraterrestre à la télévision française et sur YouTube (1959-2018) » Questions de communication, 42(2), 159-185.
  • Haas P. M., (1992). « Epistemic Communities and International Policy Coordination », International Organization, 46/1, 1-35.
  • Meyer, Morgan. et al. « “Communautés épistémiques” : une notion utile pour théoriser les collectifs en sciences ? ». Terrains & travaux, 2011/1 n° 18, 2011. p.141-154. https://shs.cairn.info/revue-terrains-et-travaux-2011-1-page-141
  • Musso, Pierre L’Imaginaire industriel, Éditions Manucius, 2014. Interfaces numériques, 3(2), 352-353.
  • Régnauld Irénée, Saint-Martin Arnaud, Une histoire de la conquête spatiale. Des fusées nazies aux astrocapitalistes du New Space, La Fabrique, Paris, 2024, 276 p

Aller plus loin :

Diapo de la conférence :

Merci aux personnes dont les discussions passionnantes ont permis de faire évoluer ma réflexion sur le sujet : Jean-Lou Fourquet, le Futurologue, Amandine et Romain.

Réferences

Réferences
1 Skeptikon est une association de diffusion de la pensée critique et des logiciels libre. Elle regroupe des vulgarisateur·ices vulgarisant la démarche scientifique sous diverses formes et souhaitant s’émanciper du modèle Youtube. Je vous encourage à regarder l’autre conférence de Skeptikon de cette année, plus introductive à ce qu’on fait : Comment se réapproprier nos espaces d’échanges ? – Elzen | JdLL2025 https://videos-libr.es/w/qz5pUncKBgcP7t9aR5ARyQ
2 Lors des Rencontres de l’esprit Critique REC2025 j’ai animé une table-ronde sur le sujet de l’altruisme efficace. J’espère que le replay sortira un jour, mais j’ai notamment expliqué que je n’avais rien contre les personnes qui se reconnaissent dans le courant de l’altruisme efficace. On peut difficilement être contre les objectifs du mouvement, mais certaines conclusions des membres me paraissent parfois discutables. Je le dis dans la conférence des JDLL : je fais bien la distinction entre le courant abstrait et respectable de l’altruisme efficace VS les stratégies qui justifient des actions par la Rationalité™ et un calcul coûts/bénéfices farfelu.
3 On aurait aussi pu aussi regarder les liens entre la recherche en IA et les sciences coloniales/eugénistes : McQuillan, 2022; West, 2020; Katz, 2020; Ali, 2019
4 Pour faire simple, la méthode de recherche de l’article était de partir de l’analyse des discours de premières mains au sujet de l’AGI, en tirant ensuite le fil des idéologies, celles revendiquées et celles qui ne le sont pas (transhumanisme, cosmiste). On détaille à chaque fois pourquoi les courants cités partagent des formules similaires aux idéologies du bundle, ainsi que des acteurs de l’eugénisme. On détaille aussi une sociologie commune entre les sous-courants. Bien que travaillant dans le secteur de l’éthique, les auteur·ices ont peut-être le problème d’un manque de formation en psychologie politique ou en sociologie, qui leur permettrait une analyse plus fine des communautés qu’iels prétendent décrire.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *