Le point commun que je remarque parmi les amis et la famille qui sont sceptiques à l’égard de l’IA n’est pas qu’ils se concentrent sur ses limites et ses risques actuels.

C’est qu’ils concluent que ces points négatifs sont une raison pour aborder la question avec hésitation, voire pas du tout. Ils visent à limiter son utilisation là où les choses semblent les plus sûres, en supposant qu'elle ne s'améliorera pas de manière significative de si tôt. Il existe toujours un sentiment de fond selon lequel l’IA ne parviendra jamais à atteindre suffisamment d’« humanité » pour gérer les tâches les plus importantes.

Vous pourriez supposer qu’il s’agit de personnes extérieures à la technologie qui manquent de contexte. Ce n'est pas le cas. L'automne dernier, j'ai passé une semaine dans la Silicon Valley pour retrouver des amis du secteur technologique. J'ai entendu le même scepticisme de la part des ingénieurs, des chefs de produit et des fondateurs. Non pas une ignorance de l’IA, mais une profonde réticence à s’y engager. Le modèle ne dépend pas de savoir qui comprend la technologie. Il s'agit d'autre chose.

J'ai déjà vu ce modèle avec la crypto. Lorsque la blockchain était un sujet brûlant, les sceptiques soulignaient le même type de méfiance structurelle. Non seulement « cette technologie a des problèmes », mais « ces problèmes prouvent qu’elle ne pourra jamais remplacer ce que nous avons déjà ». La conclusion était toujours la même : restez à l’écart, attendez, laissez quelqu’un d’autre déterminer si cela compte.

## Les gens qui se salissent les mains

Mes amis enthousiastes voient également les limites et les risques. Mais ils perçoivent la rapidité avec laquelle les choses évoluent et s’améliorent. Les plus enthousiastes se mobilisent pour aborder directement les problèmes. Ils construisent de nouveaux outils. Ils consultent pour aider les entreprises à adopter. Ils consacrent leur travail quotidien à cette frontière.

Ils rencontrent les frustrations de manière plus approfondie et plus directe que les sceptiques, car ils traversent les hauts et les bas chaque jour. Mais ils acceptent que la seule façon de résoudre ces problèmes est de se salir avec la technologie. Avoir les yeux clairs sur son influence et ses échecs.

Les sceptiques observent à distance et concluent que les problèmes sont disqualifiants. Les constructeurs se heurtent de front à ces mêmes problèmes et les traitent comme le travail lui-même.

## Le paradoxe

Voici ce que je trouve frappant. C’est un test décisif sur la confiance que l’on place dans les capacités humaines.

Ceux qui adoptent les machines de manière proactive ont le plus confiance dans l’ingéniosité humaine et le contrôle créatif. Ils croient que nous pouvons gérer cela. Ils croient que les problèmes peuvent être résolus parce que les humains sont capables de les résoudre.

Ceux qui hésitent révèlent un manque de confiance dans les humains, que ce soit en tant qu’individus ou en tant qu’institutions, pour guider la technologie vers un endroit qui nous sert. L’inquiétude n’est pas seulement « l’IA est défectueuse ». C'est "nous ne pouvons pas le réparer". Ou pire : « on ne peut pas nous faire confiance ».

Ce cadrage s’applique également à la cryptographie. Les sceptiques disaient que nos institutions monétaires sont irremplaçables. Les constructeurs ont déclaré que les humains peuvent créer de nouvelles formes de confiance. Un groupe a parié sur le statu quo. L’autre parie sur l’adaptabilité humaine.

Ce n’est pas la même chose que la foi qui remplace la preuve. J'ai passé sept ans dans un écosystème cryptographique où [la croyance est devenue liquide et le récit a remplacé les commentaires sur le produit](/posts/when-the-chain-becomes-the-product). Ce genre de foi persiste en s’isolant de la réalité. La foi que je décris ici est le contraire. Cela vient du fait de s'attaquer directement aux échecs et d'observer le taux d'amélioration de vos propres mains dans le travail.

## Pas d'avenir déterminé

Si cela semble polarisant, je suppose que cela ne se produit que si vous avez déjà un scénario fixe en tête. Celui où soit nous compartimentons l’IA dans un ensemble sûr de cas d’utilisation, soit nous la laissons tout prendre en charge.

Mais il n’y a pas d’avenir déterminé. Personne n’a écrit le scénario dans lequel des personnes ou des robots jouent un rôle donné, et encore moins l’emportent sur les autres. Le résultat dépend de qui se présente pour le façonner.

Et le façonner ne signifie pas écrire du code. Un enseignant qui découvre comment l’IA change ce que les élèves doivent apprendre est en train de le façonner. Un écrivain utilisant l’IA pour rechercher plus rapidement et publier plus honnêtement le façonne. La propriétaire d’une petite entreprise qui automatise ses factures afin de pouvoir passer plus de temps avec ses clients est en train de façonner ce projet. La question n'est pas de savoir si vous avez des compétences techniques. Il s'agit de savoir si vous vous engagez dans la technologie avec un état d'esprit productif, prêt à surmonter les frictions parce que vous pensez que les humains peuvent en tirer quelque chose de bien.

L’optimisme que je décris n’est pas la foi dans une technologie particulière. C'est la foi dans la capacité technologique humaine, la capacité accumulée, obstinée et créative des gens à prendre des outils rudimentaires et à les transformer en quelque chose qui sert la vie. Cette capacité a été constante à chaque changement technologique majeur. La question, comme toujours, est de savoir si nous avons suffisamment confiance en nous pour l’utiliser.

## Post-scriptum : les détails

Un ami a repoussé cet essai. Elle aimait le principe mais voulait des détails. Affrontez les vrais problèmes éthiques, a-t-elle dit, et montrez que quelqu'un s'attaque à chacun d'eux avec bonne foi. Sinon, l'argument reste abstrait.

Elle a raison. Voici donc quatre problèmes soulevés par les sceptiques, et à quoi cela ressemble lorsque les gens se présentent au lieu de reculer.

**Pouvons-nous faire confiance à l'IA avec notre cerveau ?** À Oakland, 17 enseignants d'écoles publiques [ont rejoint une communauté de pratique appelée AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). Ils ont commencé à être sceptiques. À la fin, un enseignant avait réduit la notation des dissertations de plus d'une heure à trois minutes tout en générant des plans d'étude personnalisés pour chaque élève. Le problème n'est pas l'efficacité. Ces enseignants ont décidé qu’ils devraient être ceux qui déterminent comment l’IA entre dans leurs salles de classe, sans attendre que quelqu’un d’autre en fixe les conditions. Ils ont utilisé l’IA pour récupérer du temps pour les parties de l’enseignement qui nécessitent un jugement humain. Personne n’a cédé sa capacité cognitive. Ils l'ont agrandi.

**Qu'en est-il de l'impact environnemental ?** Cette préoccupation est réelle. La formation de grands modèles d’IA consomme énormément d’énergie. Mais les personnes travaillant au plus près du problème sont également celles qui sont à l’origine du correctif. [Des chercheurs de l'UCL ont découvert](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) que des changements pratiques dans la configuration des modèles, comme la quantification et l'utilisation de modèles spécialisés plus petits, peuvent réduire la demande énergétique de l'IA jusqu'à 90 %. [Google a réduit de 33 fois l'énergie consommée par l'invite de texte Gemini](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) en une seule année. [Un essai de réseau de Londres](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) utilisant le matériel NVIDIA a réduit la demande d'énergie du centre de données de 40 % en temps réel. Ces gains ne sont pas venus de personnes qui ont refusé de s’impliquer dans les coûts énergétiques de l’IA. Ils venaient de personnes qui ont mesuré le problème et se sont mis à y travailler.

**Qu'en est-il de l'IA reproduisant les préjugés du passé ?** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) est une artiste transmédia à New York. Après avoir rencontré [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html), un robot humanoïde conçu pour représenter une femme noire dont les réponses sur la race [étaient superficielles et réductrices](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), elle n'a pas écarté la technologie. Elle a créé Not the Only One, un chatbot IA formé sur [40 heures d'histoires orales](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) auprès de trois générations de femmes de sa propre famille. Au lieu d’accepter que les données de formation comportent toujours des préjugés liés à la culture dominante, elle s’est appropriée les siennes. Ses installations au Smithsonian et au Queens Museum invitent le public à se poser la même question : que deviendraient nos machines si nous les entraînions avec soin ? Dinkins n'est pas un informaticien. C'est une artiste qui a décidé que le problème était l'œuvre elle-même.

**Qu'en est-il des décisions gouvernementales et militaires ?** En février 2026, le Pentagone a exigé qu'Anthropic supprime les garanties de ses systèmes d'IA pour permettre un ciblage d'armes entièrement autonome et une surveillance nationale de masse. [Anthropic refusé](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). Le PDG Dario Amodei a déclaré que les systèmes ne sont pas suffisamment fiables pour prendre des décisions meurtrières autonomes et que la surveillance de masse viole les principes démocratiques. Le Pentagone [a menacé d'annuler un contrat de 200 millions de dollars](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) et qualifie Anthropic de risque pour la chaîne d'approvisionnement. Anthropic a tenu bon. Voilà à quoi cela ressemble lorsque les personnes qui construisent la technologie utilisent cette position pour tracer des lignes. Vous ne pouvez pas tracer de lignes en marge.

**Sur les réseaux sociaux : une autre comparaison historique récente.** La réfutation évidente à tout cet essai est que nous avons entendu le même optimisme auparavant. Démocratiser l'information. Connectez les communautés. Donnez à chacun une voix. Ce que nous avons obtenu : la polarisation, la désinformation à grande échelle, une crise de santé mentale chez les adolescents et la lente érosion de la réalité partagée.

Je prends cela au sérieux. Mais regardez qui a causé les dégâts et qui est en train de les réparer. Facebook a lancé son algorithme optimisé pour l'engagement en 2006. En 2016, les propres chercheurs de l'entreprise [ont découvert que 64 % des adhésions à des groupes extrémistes provenaient de recommandations algorithmiques](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms). Les dirigeants ont qualifié cette solution d'« anti-croissance » et l'ont mise de côté. La première réglementation complète sur les médias sociaux, [la loi européenne sur les services numériques](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), n'est arrivée qu'en 2022. Les États-Unis n'en ont toujours pas. Cela fait seize ans que la société civile, les régulateurs et les utilisateurs cèdent le terrain aux incitations des plateformes.

La correction, lorsqu’elle est finalement arrivée, est venue de personnes suffisamment proches pour comprendre. [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) dénonce depuis l'intérieur de Facebook. Des chercheurs documentent les méfaits algorithmiques. L’UE rédige une nouvelle loi. Les parents s'organisent. Des adolescents quittant des plateformes qui ne les servaient pas. Rien de tout cela ne venait des gens qui sont restés à l’écart.

Les réseaux sociaux ne réfutent pas la thèse. Cela le prouve. Le danger n’était pas qu’un trop grand nombre de personnes essayaient de façonner la technologie. C'était trop peu, depuis trop longtemps. Et c’est la posture que répètent aujourd’hui les sceptiques de l’IA.