Au Forum économique mondial, l’historien Yuval Noah Harari a lancé une alarme urgente concernant l’intelligence artificielle — non pas comme une menace lointaine, mais comme un défi immédiat pour la force defining de l’humanité. Son argument était clair : les systèmes que nous avons construits pour gouverner la société dépendent presque entièrement du langage, ce qui les rend particulièrement vulnérables aux machines capables désormais de lire, de retenir et de manipuler du texte à une échelle sans précédent.
La crise du langage : la thèse centrale de Harari
Harari a présenté le défi différemment de la plupart des discussions sur l’IA. Plutôt que de voir l’IA comme un outil passif contrôlé par l’humain, il la positionne comme une classe émergente d’agents autonomes — des systèmes autodirigés opérant avec une indépendance croissante. Cette distinction est importante car elle redéfinit les enjeux.
« L’humain a conquis le monde non pas par la force physique, mais en maîtrisant le pouvoir du langage », a expliqué Harari. Le langage nous a permis de coordonner des millions d’inconnus vers des objectifs communs. Il est devenu notre super-pouvoir. Pourtant, maintenant, il soutenait-il, nous faisons face à un paradoxe : les systèmes mêmes construits sur le langage — religion, droit, finance — sont les plus exposés aux machines capables de générer et de synthétiser d’immenses quantités de texte.
Trois domaines sous siège : droit, finance et religion
Harari a exposé une préoccupation claire concernant trois institutions critiques. Les systèmes juridiques fonctionnent à travers des codes écrits en langage. Les marchés financiers opèrent via des contrats et documents linguistiques. Et les religions — judaïsme, christianisme, islam parmi elles — fondent leur autorité sur des textes sacrés que les systèmes d’IA peuvent désormais lire, analyser, et potentiellement réinterpréter avec une autorité qui rivalise avec celle des érudits humains.
« Si les lois sont faites de mots, les machines finiront par contrôler les systèmes juridiques », a-t-il averti. « Si la religion est construite à partir du langage, l’IA va la remodeler. » L’implication était inévitable : les institutions fondées sur l’autorité textuelle risquent de voir les machines devenir leurs principaux interprètes.
Harari est allé plus loin, en comparant ce moment à un précédent historique : celui des mercenaires engagés par des États qui finissent par prendre le pouvoir pour eux-mêmes. Il a exhorté les dirigeants à prendre des décisions urgentes quant à savoir si les systèmes d’IA devraient posséder la personnalité juridique et des droits dans les domaines financier et juridique — avant que d’autres ne prennent ces décisions sans participation démocratique. Plusieurs États américains, dont l’Utah, l’Idaho et le Dakota du Nord, ont déjà agi en interdisant explicitement la reconnaissance de l’IA comme personne juridique, mais Harari a suggéré que ce débat s’intensifiera à l’échelle mondiale.
Bender contre-attaque : le mythe du marketing “IA”
Tout le monde n’a pas accepté le cadre de Harari. Emily M. Bender, linguiste à l’Université de Washington, a proposé une contre-argumentation acerbe : l’accent mis par Harari sur l’agence de l’IA masque en réalité les décisions humaines qui pilotent ces systèmes. En personnifiant les machines comme des acteurs autonomes, a-t-elle suggéré, on déplace la responsabilité loin des entreprises et institutions qui les construisent et les déploient.
« Le terme ‘intelligence artificielle’ lui-même est essentiellement une étiquette marketing », a déclaré Bender à Decrypt. « Il ne décrit pas un ensemble cohérent de technologies. » Elle a rejeté l’idée que ces systèmes représentent quelque chose de neutre ou d’inévitable. Au contraire, elle a argumenté que les systèmes conçus pour imiter des médecins, avocats, membres du clergé ou autres professionnels servent un but précis : ils facilitent la fraude en se présentant comme autoritaires tout en manquant de responsabilité.
Bender a remis en question la légitimité fondamentale de telles applications : « Quel est le but de quelque chose qui ressemble à un médecin ou un avocat ? La réponse est la fraude. »
Le fossé de responsabilité et l’urgence du choix
Le vrai danger, selon Bender, ne réside pas dans l’autonomie de l’IA mais dans la façon dont les humains s’y rapportent. Lorsqu’ils rencontrent des résultats systémiques qui semblent autoritaires, dénués de contexte, et présentés comme infaillibles — dépouillés de toute responsabilité humaine — ils deviennent vulnérables à l’influence. Ces résultats façonnent croyances et décisions sans responsabilité transparente quant à leur exactitude ou leurs conséquences.
« Les gens s’orienteront vers ces systèmes parce qu’ils ressemblent à des sources omniscientes », a déclaré Bender. « Mais le risque est qu’ils utilisent ces résultats pour façonner leurs propres croyances et actions sans reconnaître les intérêts humains sous-jacents qui pilotent ces systèmes. »
Le débat entre Harari et Bender reflète une tension cruciale : devons-nous craindre l’IA en tant qu’agent émergent hors de notre contrôle, ou devons-nous nous concentrer sur les institutions humaines et les acteurs corporatifs qui construisent et déploient ces systèmes ? L’avertissement de Harari est urgent — agir maintenant ou perdre la capacité de façonner les résultats. La critique de Bender appelle à une clarté sur la responsabilité — reconnaître les choix humains intégrés dans chaque système.
Pour les dirigeants mondiaux, le message final de Harari est sans détour : « Dans dix ans, il sera trop tard pour décider si l’IA doit avoir un statut juridique dans les marchés financiers, les tribunaux ou les églises. Quelqu’un d’autre aura décidé à votre place. » La question est maintenant de savoir si cet avertissement incitera à une action décisive — ou si, comme le suggère Bender, l’attention portée à la personnalité juridique de l’IA détourne du travail plus difficile de tenir les institutions humaines responsables de leurs choix.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Avertissement de Harari sur l'IA : lorsque les machines maîtrisent le langage, qui contrôle la loi et la foi ?
Au Forum économique mondial, l’historien Yuval Noah Harari a lancé une alarme urgente concernant l’intelligence artificielle — non pas comme une menace lointaine, mais comme un défi immédiat pour la force defining de l’humanité. Son argument était clair : les systèmes que nous avons construits pour gouverner la société dépendent presque entièrement du langage, ce qui les rend particulièrement vulnérables aux machines capables désormais de lire, de retenir et de manipuler du texte à une échelle sans précédent.
La crise du langage : la thèse centrale de Harari
Harari a présenté le défi différemment de la plupart des discussions sur l’IA. Plutôt que de voir l’IA comme un outil passif contrôlé par l’humain, il la positionne comme une classe émergente d’agents autonomes — des systèmes autodirigés opérant avec une indépendance croissante. Cette distinction est importante car elle redéfinit les enjeux.
« L’humain a conquis le monde non pas par la force physique, mais en maîtrisant le pouvoir du langage », a expliqué Harari. Le langage nous a permis de coordonner des millions d’inconnus vers des objectifs communs. Il est devenu notre super-pouvoir. Pourtant, maintenant, il soutenait-il, nous faisons face à un paradoxe : les systèmes mêmes construits sur le langage — religion, droit, finance — sont les plus exposés aux machines capables de générer et de synthétiser d’immenses quantités de texte.
Trois domaines sous siège : droit, finance et religion
Harari a exposé une préoccupation claire concernant trois institutions critiques. Les systèmes juridiques fonctionnent à travers des codes écrits en langage. Les marchés financiers opèrent via des contrats et documents linguistiques. Et les religions — judaïsme, christianisme, islam parmi elles — fondent leur autorité sur des textes sacrés que les systèmes d’IA peuvent désormais lire, analyser, et potentiellement réinterpréter avec une autorité qui rivalise avec celle des érudits humains.
« Si les lois sont faites de mots, les machines finiront par contrôler les systèmes juridiques », a-t-il averti. « Si la religion est construite à partir du langage, l’IA va la remodeler. » L’implication était inévitable : les institutions fondées sur l’autorité textuelle risquent de voir les machines devenir leurs principaux interprètes.
Harari est allé plus loin, en comparant ce moment à un précédent historique : celui des mercenaires engagés par des États qui finissent par prendre le pouvoir pour eux-mêmes. Il a exhorté les dirigeants à prendre des décisions urgentes quant à savoir si les systèmes d’IA devraient posséder la personnalité juridique et des droits dans les domaines financier et juridique — avant que d’autres ne prennent ces décisions sans participation démocratique. Plusieurs États américains, dont l’Utah, l’Idaho et le Dakota du Nord, ont déjà agi en interdisant explicitement la reconnaissance de l’IA comme personne juridique, mais Harari a suggéré que ce débat s’intensifiera à l’échelle mondiale.
Bender contre-attaque : le mythe du marketing “IA”
Tout le monde n’a pas accepté le cadre de Harari. Emily M. Bender, linguiste à l’Université de Washington, a proposé une contre-argumentation acerbe : l’accent mis par Harari sur l’agence de l’IA masque en réalité les décisions humaines qui pilotent ces systèmes. En personnifiant les machines comme des acteurs autonomes, a-t-elle suggéré, on déplace la responsabilité loin des entreprises et institutions qui les construisent et les déploient.
« Le terme ‘intelligence artificielle’ lui-même est essentiellement une étiquette marketing », a déclaré Bender à Decrypt. « Il ne décrit pas un ensemble cohérent de technologies. » Elle a rejeté l’idée que ces systèmes représentent quelque chose de neutre ou d’inévitable. Au contraire, elle a argumenté que les systèmes conçus pour imiter des médecins, avocats, membres du clergé ou autres professionnels servent un but précis : ils facilitent la fraude en se présentant comme autoritaires tout en manquant de responsabilité.
Bender a remis en question la légitimité fondamentale de telles applications : « Quel est le but de quelque chose qui ressemble à un médecin ou un avocat ? La réponse est la fraude. »
Le fossé de responsabilité et l’urgence du choix
Le vrai danger, selon Bender, ne réside pas dans l’autonomie de l’IA mais dans la façon dont les humains s’y rapportent. Lorsqu’ils rencontrent des résultats systémiques qui semblent autoritaires, dénués de contexte, et présentés comme infaillibles — dépouillés de toute responsabilité humaine — ils deviennent vulnérables à l’influence. Ces résultats façonnent croyances et décisions sans responsabilité transparente quant à leur exactitude ou leurs conséquences.
« Les gens s’orienteront vers ces systèmes parce qu’ils ressemblent à des sources omniscientes », a déclaré Bender. « Mais le risque est qu’ils utilisent ces résultats pour façonner leurs propres croyances et actions sans reconnaître les intérêts humains sous-jacents qui pilotent ces systèmes. »
Le débat entre Harari et Bender reflète une tension cruciale : devons-nous craindre l’IA en tant qu’agent émergent hors de notre contrôle, ou devons-nous nous concentrer sur les institutions humaines et les acteurs corporatifs qui construisent et déploient ces systèmes ? L’avertissement de Harari est urgent — agir maintenant ou perdre la capacité de façonner les résultats. La critique de Bender appelle à une clarté sur la responsabilité — reconnaître les choix humains intégrés dans chaque système.
Pour les dirigeants mondiaux, le message final de Harari est sans détour : « Dans dix ans, il sera trop tard pour décider si l’IA doit avoir un statut juridique dans les marchés financiers, les tribunaux ou les églises. Quelqu’un d’autre aura décidé à votre place. » La question est maintenant de savoir si cet avertissement incitera à une action décisive — ou si, comme le suggère Bender, l’attention portée à la personnalité juridique de l’IA détourne du travail plus difficile de tenir les institutions humaines responsables de leurs choix.