top of page
  • Instagram
  • Facebook
  • Youtube
  • ICESCO

Intelligence Artificielle ? Bêtise Humaine ?

Updated: 14 minutes ago


Gérard Pelé








Gérard Pelé


Professeur émérite à l’Université PARIS I

Panthéon Sorbonne




" Adoptée à Kigali le 4 avril 2025, la Déclaration Africaine sur l’intelligence artificielle constitue une étape majeure dans la gouvernance de l’IA en Afrique. [...] "

C’est la première phrase d’un texte publié sur la boucle WhatsApp de l’ICESCO par Henriette Mbengue, « Cyberjuriste ». S’il est tout à fait légitime qu’un certain nombre de pays africains se soient accordés pour définir une politique d’utilisation de cette « technologie […] conforme aux valeurs et aux intérêts de l’Afrique », il faut d’emblée remarquer sa soumission à la stratégie « du fait accompli » ou, à tout le moins, en adéquation avec les attitudes qui sont déjà considérées comme inévitables par presque tout le monde en raison de la propriété intellectuelle (brevets, ingénierie) et industrielle (infrastructures, techniques) de cette nouvelle industrie par de grandes firmes, principalement États-Uniennes… et bientôt Chinoises.


Contexte de la « Déclaration… » sur les Intelligences Artificielles « IA »


Deux remarques s’imposent aussitôt : d’abord, avec le terme « technologie », la « Déclaration… » postule qu’il s’agit d’une science des techniques (de l’IA) sans discuter sa « scientificité », sans d’ailleurs en connaître le contenu, et donc sans envisager que cette « technologie » ne soit qu’un scientisme, autrement dit une approche selon laquelle les problèmes concernant l’humanité et le monde pourraient être réglés suivant le paradigme de la méthode expérimentale, excluant toute dimension spirituelle ; ensuite, il faut savoir que le développement des « IA » est encore récent puisque c’est seulement avec celui des « grands modèles de langage » (LLM) à partir de 2018 que l’on a réellement pris conscience des performances de techniques plus anciennes, en se focalisant sur ses résultats et ses applications potentielles sans vraiment s’intéresser à leur fonctionnement… Puisque ça marche, pourquoi chercher à comprendre comment ?


Or, quand il s’agit de transposer concrètement des principes de « Souveraineté, Inclusivité et Diversité », de « Protection et Respect », de « Collaboration et Investissement » (cf. la « Déclaration… »), il est impossible de ne pas avoir une connaissance, même très simplifiée, des principes de fonctionnement de ces « IA » et de ce qui conditionne leur mise en œuvre en termes énergétique, environnemental et, en définitive, économique.


Fonctionnement des « IA »


Concernant les mécanismes qui les animent, on peut déjà s’en faire une idée à partir des premiers travaux portant sur la reconnaissance des formes à l’aide de réseaux de neurones formels. Ce sont des modèles mathématiques de neurones très simplifiés et disposés en trois couches au minimum : une couche d’entrée assimilable à une rétine artificielle, une couche de sortie qui délivre une « décision » et, entre les deux, une ou plusieurs couches de filtrage adaptatif. Chaque neurone formel de chaque couche est relié aux neurones de la couche suivante et son action est pondérée par un « poids » qui correspond à une fonction de renforcement ou d’inhibition. C’est l’architecture de base de tout ce qu’il sera ensuite permis d’édifier en raison du progrès des calculateurs et des dispositifs de stockage des données. Dans la phase « d’apprentissage », on présente une forme à la couche d’entrée et on ajuste les poids de chaque liaison de manière à obtenir la décision souhaitée… Puis on recommence avec une seconde forme en ajustant à chaque fois les poids pour obtenir la bonne réponse, ce processus étant automatisé par un algorithme dit « de rétropropagation de l’erreur » pour les couches intermédiaires.


Caractéristiques des « IA »


Prenons l’exemple d’un tel dispositif qui serait entraîné pour distinguer les femmes des hommes. Quid des enfants en bas âge ? Quid des androgynes ? Quid des travestis ? Quid des coutumes vestimentaires ? On comprend aisément que, faute de disposer de l’ensemble de tous les aspects possibles de ces deux « catégories », on ne pourra jamais obtenir qu’une décision « probabiliste », et donc, que « la transparence et l’explicabilité des systèmes d’IA » (cf. la « Déclaration… ») sont inatteignables en raison même de leur conception.


De plus, les données qui sont utilisées dans la phase d’apprentissage des « LLM » étant nécessairement choisies parmi un ensemble plus vaste (voir supra), elles peuvent véhiculer des préjugés et des stéréotypes (âge, sexe, nationalité, religion, profession…), des biais politiques ou idéologiques, des biais linguistiques… Et, de fait, ces données sont liées à une certaine conception du monde transmise par les propriétaires de ces « IA » et par l’ensemble des opérateurs qui ont contribué à les rendre disponibles au-delà de leur environnement culturel – c’est en quoi consiste la « mondialisation ». Par exemple, ChatGPT a été entraîné avec les textes de Wikipédia en anglais, et d’autres applications l’ont été avec un corpus de textes de discussions sur Twitter qui associent de fortes probabilités d’apparaître en tête de liste à des énoncés agressifs, racistes et d’exclusion, souvent biaisés, voire franchement toxiques.

Cependant, il ne suffit pas de connaître, même approximativement, le mode de fonctionnement des « IA » pour en apprécier toute la portée, car il y a encore deux aspects de cette industrie qui n’ont pas été abordés : c’est premièrement la question des conditions matérielles et concrètes de leur développement ; et deuxièmement celle de la place de l’humanité dans ce nouvel environnement.


Conditions matérielles pour la mise en œuvre des « IA »


Pour ce qui est des conditions matérielles du développement des « IA », elles sont multiples et concernent des domaines très différents. C’est d’abord l’extraction des ressources nécessaires à la fabrication des ordinateurs et des dispositifs de stockage de données qui sont regroupées dans des « data center », à quoi il faut ajouter les « serveurs », les « aiguilleurs » (hubs) et les liaisons entre eux par câbles ou relais satellites. Pour parvenir à construire ces dispositifs, il faut miner du silicium, de l’aluminium, du cuivre, de l’or, du carbone (graphène – en développement) et des « terres rares » (gallium, germanium, palladium néodyme…) en quantités croissantes, puis transporter ces matériaux pour les raffiner en usant de grandes quantités de produits chimiques et d’énergie dans un processus qui en abandonne la plus grande partie sous forme de déchets difficilement recyclables, sauf à dépenser encore plus d’énergie… Ce dont les industries impliquées s’abstiennent quand elles le peuvent.

De plus, l’édification de ces centres de calcul, de données et de routage requiert elle-même la construction des infrastructures qui permettent leur implantation, leur alimentation en énergie et l’établissement des liaisons entre eux, ainsi que d’autres dispositifs nécessaires à leur fonctionnement et à leur maintenance.


Ce sont donc en premier lieu des espaces qui ne peuvent être insérés dans le tissu urbain en raison du coût du foncier et de l’acceptabilité des nuisances induites (pollution, bruit…) par ses usagers, et qui sont, par conséquent, le plus souvent prélevés sur des zones qui pourraient être utilisées à d’autres fins, notamment agricoles. Et comme ils doivent tous être interconnectés, cela suppose qu’il y ait des centres qui regroupent et redistribuent le flux des données, des hubs qui sont eux-mêmes connectés à des liaisons internationales, entraînant de nouvelles appropriations de certains lieux stratégiques, notamment les zones côtières à partir desquelles les grands câbles sous-marins relient les continents… Ce qui implique bien sûr de nouveau des matériaux, de l’énergie, de la surveillance et de la maintenance. Et lorsqu’elles sont réalisées par voie hertzienne, le bilan n’est guère plus favorable car les satellites qui les relayent sont coûteux, impliquent de grandes quantités d’énergie pour leur lancement, finissent par encombrer les espaces où ils doivent être situés pour être efficaces… Et finiront eux aussi en déchets.


Ensuite, les centres de stockage de données, les calculateurs qui exécutent les programmes de traitement des informations et les serveurs requièrent beaucoup d’énergie électrique. C’en est au point que, par exemple, l’entreprise Microsoft a négocié en 2024 une relance de la centrale nucléaire Three Mile Island dont le cœur du réacteur n° 2 avait fondu le 28 mars 1979, entraînant l’arrêt de son exploitation. C’est pourquoi on conçoit de nouveaux projets partout où il est possible de produire de l’électricité, que ce soit à partir d’énergie fossile, nucléaire ou « renouvelable », sachant qu’aucune de ces technologies n’est absolument sans aucun impact écologique. On comprend qu’il y aura nécessairement des arbitrages à faire entre les gains de croissance permis par cette nouvelle industrie et les conséquences de son développement au plan environnemental… Donc humain, dès l’étape de l’établissement des infrastructures et de fabrication des équipements.


D’ailleurs, on peut faire le bilan de la consommation d’énergie impliquée dans le développement des « IA » : ce sont les serveurs, les calculateurs et les systèmes de refroidissement qui en dépensent la plus grande partie, en moyenne 80 %, dont 30 à 40 % rien que pour refroidir les composants électroniques, faute de quoi toutes ces machines tomberaient rapidement en panne. De plus, comme on n’admet pas qu’il puisse y avoir une rupture de service, ils disposent d’un, voire de deux générateurs externes en cas de délestage ou de défaillance du réseau électrique, et ces groupes électrogènes fonctionnent habituellement avec du carburant liquide. En tout cas, on estime actuellement leur consommation à 5 MWh par mètre carré et par an, ce qui correspond à celle d’une ville de 50 000 habitants en Europe de l’Ouest pour chaque « data center » de 100 000 m2. Pour être concret, ces installations représentent un peu plus de 3 % de la consommation électrique pour celles qui sont situées en Europe, soit la totalité de la production de la Belgique. Et il faut bien sûr ajouter la consommation électrique qui est due à ses usages : terminaux, réseaux, ordinateurs, télévision, smartphones… et donc multiplier par cinq ces chiffres. Pour être complet, on n’oubliera pas que ces matériels doivent être « maintenus », dépannés quand c’est possible, et surtout constamment renouvelés afin de suivre le progrès des techniques… Et rester dans la course au profit.


Politique africaine des « IA »


Après une présentation très schématique du principe de fonctionnement des « IA » et un tableau, également approximatif et incomplet, des conditions qui en permettent l’implantation et le fonctionnement, on perçoit immédiatement qu’il y a un principe directeur de la Déclaration Africaine sur l’intelligence artificielle qui ne peut pas être satisfait, pas plus d’ailleurs qu’il ne pourrait l’être dans aucun des états ou groupements d’états comme l’Union européenne : c’est le principe de souveraineté. En effet, ni la matière première, ni les usines de fabrication des équipements et leur main-d’œuvre, ni l’ingénierie pour leur conception et leur programmation, ni les ressources humaines pour l’exploitation des ressources numériques, ni les infrastructures, ni les sources d’énergie, etc., ne sont disponibles en totalité dans aucun état ni même dans aucun groupement d’états.


Certes, les États membres de l’Union africaine sont au nombre de 55, et il s’agit de l’ensemble des États présents sur le continent – exceptés le Gabon, le Mali, la Guinée, le Soudan, le Burkina Faso et le Niger, actuellement suspendus –, et dans le document complet édité par l’Union Africaine en juillet 2024 – Stratégie Continentale sur l’Intelligence Artificielle - Mettre l’IA au Service du Développement et de la Prospérité de l’Afrique – il est bien spécifié en préambule que « la population africaine, jeune et technophile, est bien placée pour adopter les technologies innovantes et les mettre au service de la transformation économique et sociale ». Mais il ne s’agit encore que de « l’établissement de cadres juridiques et éthiques spécifiquement adaptés aux contextes africains » ; il ne s’agit, à ce stade, que de développer des infrastructures qui restent très embryonnaires et dépendantes d’états non continentaux et de s’inscrire dans une démarche de « coopération régionale et internationale ». Malgré quelques initiatives plus concrètes, en Afrique du Sud, au Maroc ou en Tunisie, on est encore loin, en effet, de la souveraineté postulée en préambule.


Néanmoins, ce document de 73 pages expose lucidement certaines des problématiques qui sont également discutées en Europe ou ailleurs dans le monde, relevant notamment les risques liés aux préjugés et aux stéréotypes véhiculés dans les données provenant « généralement de pays développés et d’équipes de développeurs non diversifiées et non inclusives », n’oubliant pas non plus de mentionner les menaces qui résultent de l’utilisation des « IA » à des fins de manipulations, éventuellement politiques, voire de « cyberguerre ». Il évoque également une incertitude qui serait due au fait que « les systèmes d’IA ne sont peut-être pas encore tout à fait en mesure d’expliquer leurs décisions ». Mais puisque nous avons vu que, sur ce point précis, il n’y a aucun progrès possible, cela montre que, malgré l’expertise qui a présidé à sa rédaction, il subsiste des difficultés pour appréhender correctement leur fiabilité, et donc les conséquences envisageables de cette « non explicabilité » dans les contextes civils et militaires où la sûreté et la sécurité ne sont pas seulement cruciales, mais menacées en raison même de la non-maîtrise des données et du principe de fonctionnement des algorithmes qui les manipulent : admettra-t-on qu’une cible « probablement amie » soit confondue avec une cible « probablement ennemie » ?


Du coup, ces observations débouchent effectivement sur la question de la souveraineté : « l’influence extérieure des technologies d’IA développées en dehors de l’Afrique peut porter atteinte à la souveraineté nationale, aux valeurs du panafricanisme et aux libertés civiles ». Cela concerne donc la démocratie, mais aussi le patrimoine : « les systèmes d’IA risquent de s’approprier et de déformer les connaissances autochtones, ce qui pourrait éroder le patrimoine culturel et perpétuer l’exploitation culturelle ». C’est peut-être pour ces raisons qu’un Centre africain de recherche sur l’intelligence artificielle (ARCAI) a été fondé en République du Congo en 2022 afin « de fournir une formation technique et des compétences, de favoriser la création d’emplois, de réduire la fracture numérique, de promouvoir une croissance économique inclusive et d’assurer la souveraineté de l’Afrique sur les outils numériques modernes ».


La place de l’homme


On peut constater qu’il y a, dans le document édité par l’Union Africaine en juillet 2024, un point aveugle, mais qui est pourtant révélé par sa couverture.


Cette première page propose en effet une image – donc un imaginaire – qui évoque un détail de la fresque – connue comme « le Jugement dernier » – réalisée par Michel-Ange au sein de la chapelle Sixtine du Vatican et inaugurée le 1er octobre 1541 par le successeur de son commanditaire, le pape Clément VII (Jules de Médicis). Or, dans le tableau de Michel-Ange la main de Dieu est à droite et celle de l’homme à gauche, tandis que sur la couverture du document édité par l’Union Africaine, c’est une main d’homme qui est représentée à droite et celle de gauche est une main artificielle : une main de robot.


Il y a au moins deux interprétations possibles de cette inversion. Si on considère que cette illustration reproduit le schème de la fresque de Michel-Ange, l’homme a remplacé Dieu et commande au robot ou, du moins, lui transmet la connaissance. C’est possible et, après tout, ce serait conforme à la volonté affichée de maîtrise de la technologie des « IA ». Mais on peut aussi considérer que la main de droite est bien une main humaine et que, par conséquent, il se pourrait que le robot commande à l’homme ou, du moins, lui transmette la connaissance. Et puis, on peut parfaitement les combiner, et même les fusionner, pour comprendre que c’est précisément cette schizophrénie qui est à l’œuvre avec l’émergence des « IA » dans nos existences. Pour être à la fois très théorique et très explicite, la première interprétation nous mettrait en position nietzschéenne – l’homme a pris la place de Dieu – et la seconde dans celle que décrivaient Adorno et Benjamin – l’ordinateur est le nouveau fétiche de l’homme.


Il faut alors en revenir à la description initiale du fonctionnement des « IA » : dans la mesure où elles ne peuvent produire une réponse à une requête formulée par un utilisateur que parce qu’elles ont été préalablement nourries avec des données existantes et entraînées pour en combiner certains éléments liés par leurs signifiants à ceux de ladite requête tout en respectant des règles syntaxiques qui donnent à la réponse l’apparence du langage naturel, elles imitent l’apparence de ce langage. Mais elles ne créent rien qui ne soit déjà enregistré dans leurs bases de données et, de plus, restent bloquées au niveau du signifiant, c’est-à-dire qu’elles n’ont pas conscience de la signification de leurs énoncés, qu’elles n’ont aucune intention, qu’elles procèdent, en somme, par « association libre », seulement guidées par la probabilité de faire succéder un mot par un autre, une phrase par une autre phrase, et cela à n’importe quelle échelle. Auquel cas, on peut en effet avoir l’impression que nous sommes à l’origine de leurs performances, et même préserver l’idée que l’homme ne serait lui-même qu’un véhicule dépendant d’un ordre supérieur, transcendant sa propre existence… Avec toutefois la réserve que cela risquerait de le déposséder de son « libre arbitre » – mais ce serait un autre débat.


Donc, nous pourrions considérer que nous sommes en position de démiurges si nous n’étions pas – en tant que fournisseurs des données sans lesquelles ces machines seraient incapables de produire quoi que ce soit –, dans une certaine mesure, des travailleurs à leur service, c’est-à-dire, en définitive, à celui de leurs propriétaires, et ce, bénévolement, donc, en fait, à titre gratuit… Ou peu s’en faut comme l’ont établi les enquêtes sur les « travailleurs du clic ». Les contributeurs à l’encyclopédie en ligne Wikipédia, par exemple, mais aussi tous les auteurs d’articles scientifiques qui ont accepté l’invitation (en fait quasiment une obligation) à les déposer sur la plateforme HAL du CNRS pour ce qui en est des chercheurs français, sont ainsi devenus des travailleurs bénévoles au profit d’Alphabet (Google), d’Apple, de Meta (Facebook), d’Amazon, de Microsoft… sans compter les nouveaux venus : Broadcom et NVIDIA entre autres. Par conséquent, « l’Intelligence Artificielle » est avant tout le produit de l’intelligence humaine, qu’elle imite d’une manière de plus en plus convaincante au fur et à mesure du développement des techniques et de la fourniture de cette matière première que sont les données. Mais il faut être lucide sur le fait qu’à partir du moment où ce niveau de perfection est atteint, l’utilisateur « ordinaire » se trouverait déchargé de faire par lui-même ce qui lui serait offert quasi gratuitement, même si c’est un leurre, et qu’il en viendrait à imiter à son tour ce qui est produit par la machine, à adopter ses biais, ses stéréotypes, ses préjugés… Il risquerait d’abdiquer son libre arbitre, non pas aux machines qui n’en ont pas conscience, mais à leurs propriétaires qui façonnent ce qu’elles composent selon leur propre idéologie… Et c’est en cela que consisterait le renversement fétichiste mentionné supra.


La place de la culture


Lorsque l’on constate que le seul rôle accordé à la culture dans le document édité par l’Union Africaine est d’être l’un des objets du développement des techniques comme cela est évoqué à la page 42 qui ouvre un chapitre intitulé « Maximiser les avantages de l’IA pour le développement socio-économique et la renaissance culturelle », on comprend qu’on est loin de l’idée que la culture pourrait elle-même être un moteur de développement pour l’humanité. De ce fait, il est possible de dresser un autre tableau que celui que nous propose celui de Michel-Ange et, en miroir, celui de l’Union Africaine, en revenant au « propre de l’homme » que nous reproduisons partout, aussi bien dans nos relations avec les animaux « non humains » que dans celles que nous tissons avec les machines.


Lors d’une conférence qu’il a donnée le 18 avril 2025 en Sorbonne, Gérard Assayag (IRCAM) a exposé un panorama des différentes théories du sujet, depuis Descartes (le cogito) jusqu’à Deleuze et Guattari (les « machines désirantes »), en passant par Hegel, Freud et Lacan, pour montrer comment le concept de créativité, en tant qu’attribut irréductible de l’humain, a été remis en question par une « subversion » progressive du sujet qui a commencé avec la linguistique et le structuralisme au XXe siècle, « faisant perdre à ce dernier sa substance, son unité, sa permanence, comme sa relation d’objet – en d’autres termes, sa place centrale, transcendante et universelle ». Déjà, avec Hegel le sujet se saisit d’abord dans la référence dialectique à l’autre, « relation du sujet à l’autre plutôt que du sujet à lui-même ». Puis, avec Lacan c’est l’idée du « grand Autre » (la langue) comme fondement d’un ordre symbolique qui prend la place du sujet, en s’inspirant au passage, vers 1954 semble-t-il, de la cybernétique, qui était déjà allée dans ce sens en proposant une « philosophie de l’esprit sans sujet » (pensant) et ses machines comme « lieux du symbolique ». Enfin, avec Deleuze et Guattari (L’Anti-Œdipe), les machines devenues « désirantes » évacuent toute idée de transcendance : « Partout ce sont des machines, pas du tout métaphoriquement : des machines de machines, avec leurs couplages, leurs connexions. Une machine-organe est branchée sur une machine-source : l’une émet un flux, que l’autre coupe. […] C’est ainsi qu’on est tous bricoleurs ; chacun ses petites machines… »


D’une certaine manière, Deleuze et Guattari auront ainsi rendu hommage à Descartes en universalisant le concept « d’animal-machine » par son extension aux « animaux humains ». Si on fait abstraction du caractère provocateur de cette proposition, on peut se demander pourquoi nous posons le sujet comme agent conscient, pourquoi nous le considérons comme source de la conscience plutôt que comme un espace où se déploie, sous certaines conditions, la conscience. Gérard Assayag propose le concept de « cocréativité » pour décrire l’interaction entre des entités autonomes et l’émergence « d’un champ où s’évanouissent les individualités au profit de formes globales ». Son hypothèse est que la créativité, « plutôt qu’un attribut irréductible de l’humain, serait un effet de l’interaction, un phénomène émergent nourri par les rétroactions croisées et les boucles d’apprentissage entre agents ».


Si, pour finir, on voulait prendre au sérieux, d’une part les conditions concrètes du développement des « IA » et l’inévitable interdépendance qu’elles impliquent aussi bien sur le plan matériel que sur les contenus qu’elles véhiculent, et d’autre part une réflexion approfondie sur les conséquences de leur usage dans le développement humain et la nécessité de refonder entièrement notre relation à ses machines, alors il serait possible de substituer aux grands principes juridiques et aux « bonnes intentions » qu’ils véhiculent sur le plan éthique, celui, tout simple, du constat que seules les cultures (et non La Culture) peuvent guider leur développement et leur usage. Nous apprenons par imitation, et l’imitation n’est pas une singerie, mais toujours, déjà, le résultat d’une interaction entre deux agents – deux humains notamment. Celui qui « montre » est lui-même influencé par celui qui « imite », et sa connaissance évolue parallèlement à celle de l’imitateur au cours de l’opération. De plus, comme son comportement se transforme aussi au cours de l’interaction, ce n’est jamais une connaissance « brute », ou « pure » qui est transmise ou reçue, mais quelque chose qui émane de cet échange, de cette circulation de signes et de sensations. Il n’en va pas autrement avec nos machines « mimétiques ».

bottom of page