El fil comú que noto entre amics i familiars que són escèptics sobre la IA no és que es centren en les seves limitacions i riscos actuals.

És que conclouen que aquests negatius són motius per abordar-ho provisionalment, si és que ho fan. Pretenen limitar el seu ús allà on les coses se sentin més segures, sota el supòsit que no millorarà significativament aviat. Sempre hi ha un sentiment de fons que la IA mai aconseguirà prou "humanitat" per fer front a les tasques més grans.

Podríeu suposar que es tracta de persones fora de la tecnologia que no tenen context. No ho és. La tardor passada vaig passar una setmana a Silicon Valley posant-me al dia amb amics de la indústria tecnològica. Vaig sentir el mateix escepticisme d'enginyers, gestors de productes i fundadors. No el desconeixement de la IA, sinó una profunda reticència a comprometre's amb ella. El patró no es refereix a qui entén la tecnologia. Es tracta d'una altra cosa.

He vist aquest patró abans amb cripto. Quan la cadena de blocs era un tema popular, els escèptics apuntaven al mateix tipus de desconfiança estructural. No només "aquesta tecnologia té problemes", sinó que "aquests problemes demostren que mai pot substituir el que ja tenim". La conclusió sempre va ser la mateixa: allunyar-se, esperar-ho, deixar que algú altre descobreixi si és important.

## La gent embrutant-se les mans

Els meus amics entusiastes també veuen les limitacions i els riscos. Però perceben la rapidesa amb què les coses es mouen i milloren. Els més entusiastes s'uneixen per abordar els problemes directament. Construeixen noves eines. Consulten per ajudar les empreses a adoptar. Comprometen el seu treball diari en aquesta frontera.

Es troben amb les frustracions de manera més profunda i directa que els escèptics, perquè naveguen pels alts i baixos cada dia. Però accepten que l'única manera de resoldre aquests problemes és embrutar-se amb la tecnologia. Teniu els ulls clars tant sobre la seva influència com sobre els seus fracassos.

Els escèptics observen des de la distància i conclouen que els problemes són desqualificants. Els constructors es troben amb aquests mateixos problemes frontalment i els tracten com l'obra en si.

## La paradoxa

Això és el que em sembla cridaner. És una prova de foc sobre la fe que es posa en la capacitat humana.

Els que adopten les màquines de manera proactiva tenen més fe en l'enginy humà i el control creatiu. Creuen que podem dirigir això. Creuen que els problemes es poden solucionar perquè els humans són capaços de resoldre'ls.

Els que s'ofensen revelen una falta de confiança en els humans, ja sigui com a individus o com a institucions, per guiar la tecnologia cap a un lloc que ens serveixi. La preocupació no és només "la IA és defectuosa". És "no ho podem arreglar". O pitjor: "no se'ns pot confiar".

Aquest marc també s'aplica a la criptografia. Els escèptics van dir que les nostres institucions monetàries són insubstituïbles. Els constructors van dir que els humans poden crear noves formes de confiança. Un grup va apostar per l'statu quo. L'altra aposta per l'adaptabilitat humana.

Això no és el mateix que la fe que substitueix l'evidència. Vaig passar set anys en un ecosistema criptogràfic on [la creença es va convertir en líquid i la narrativa va substituir els comentaris del producte](/posts/when-the-chain-becomes-the-product). Aquest tipus de fe persisteix aïllant-se de la realitat. La fe que descric aquí és la contrària. Prové de participar directament amb els errors i observar el ritme de millora amb les vostres pròpies mans en el treball.

## Sense futur determinat

Si això sona polaritzant, sospito que només se sent així si ja teniu un escenari fix al vostre cap. Un en què compartimentem la IA en un conjunt segur de casos d'ús o deixem que es faci càrrec de tot.

Però no hi ha un futur determinat. Ningú ha escrit el guió en què les persones o els robots juguen un paper determinat, i menys encara prevalguin sobre l'altre. El resultat depèn de qui aparegui per donar-li forma.

I donar-li forma no vol dir escriure codi. Un professor que descobreix com la IA canvia el que els estudiants han d'aprendre ho està donant forma. Un escriptor que utilitza IA per investigar més ràpidament i publicar amb més honestedat l'està donant forma. El propietari d'una petita empresa que automatitza les factures perquè pugui passar més temps amb els clients ho està donant forma. La qüestió no és si teniu habilitats tècniques. És si us comprometeu amb la tecnologia amb una mentalitat productiva, disposat a superar la fricció perquè creieu que els humans en poden treure alguna cosa bona.

L'optimisme que estic descrivint no és la fe en cap tecnologia en particular. És la fe en la capacitat tecnològica humana, la capacitat acumulada, tossuda i creativa de les persones per agafar eines rudes i inclinar-les cap a alguna cosa que serveixi a la vida. Aquesta capacitat ha estat la constant en tots els grans canvis tecnològics. La qüestió, com sempre, és si confiem prou en nosaltres mateixos per utilitzar-lo.

## Postscript: els detalls

Un amic va rebutjar aquest assaig. Li agradava la premissa, però volia detalls. Afronta els problemes ètics reals, va dir, i mostra que algú s'adreça a cadascun amb bona fe. En cas contrari, l'argument es manté abstracte.

Té raó. Així doncs, aquí hi ha quatre problemes que plantegen els escèptics i com es veu quan la gent apareix en lloc de fer un pas enrere.

**Podem confiar en la IA amb la nostra confiança cerebral?** A Oakland, 17 professors d'escola pública [es van unir a una comunitat de pràctica anomenada AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-a-community-a-assumpelle-a-challengelle-a-challengelle-a-challenge-a-challenge-of). Van començar escèptics. Al final, un professor havia reduït la qualificació de l'assaig de més d'una hora a tres minuts mentre generava plans d'estudi personalitzats per a cada estudiant. La qüestió no és l'eficiència. Aquests professors van decidir que haurien de ser ells els que esbrissin com entra la IA a les seves aules, sense esperar que algú altre estableixi els termes. Van utilitzar la IA per recuperar temps per a les parts de l'ensenyament que requereixen judici humà. Ningú va lliurar la seva capacitat cognitiva. El van ampliar.

**Què passa amb l'impacte ambiental?** Aquesta preocupació és real. Entrenar grans models d'IA consumeix una enorme energia. Però les persones que treballen més a prop del problema també són les que impulsen la solució. [Els investigadors de la UCL van trobar](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) que els canvis pràctics en com es configuren els models, com la quantificació i l'ús de models especialitzats més petits, poden reduir la demanda d'energia d'IA fins a un 90%. [Google va reduir l'energia per missatge de text Gemini en 33x](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) en un sol any. [Una prova de la xarxa de Londres](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) utilitzant el maquinari NVIDIA va reduir la demanda d'energia del centre de dades un 40% en temps real. Aquests guanys no provenen de persones que es van negar a participar amb els costos energètics de l'IA. Venien de gent que mesurava el problema i es posava a treballar-hi.

**Què passa amb l'IA que reprodueix els biaixos del passat?** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) és una artista transmèdia de Nova York. Després de trobar-se amb [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html), un robot humanoide dissenyat per representar una dona negra les respostes de la qual sobre la raça [eren superficials i reductores](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-), no va escriure-hi-conversacions-dinkins. tecnologia. Va crear Not the Only One, un chatbot d'IA entrenat en [40 hores d'històries orals](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) de tres generacions de dones de la seva pròpia família. En lloc d'acceptar que les dades d'entrenament sempre portarien un biaix de la cultura dominant, va fer la seva. Les seves instal·lacions a l'Smithsonian and Queens Museum conviden al públic a plantejar-se la mateixa pregunta: què es convertirien les nostres màquines si les entrenéssim amb cura? Dinkins no és un informàtic. És una artista que va decidir que el problema era l'obra en si.

**Què passa amb les decisions governamentals i militars?** El febrer de 2026, el Pentàgon va exigir que Anthropic retirés les garanties dels seus sistemes d'IA per permetre l'orientació d'armes totalment autònoma i la vigilància domèstica massiva. [Anthropic rebutjat](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). El CEO Dario Amodei va dir que els sistemes no són prou fiables per a decisions letals autònomes i que la vigilància massiva viola els principis democràtics. El Pentàgon [va amenaçar amb cancel·lar un contracte de 200 milions de dòlars](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) i va etiquetar Anthropic com un risc de la cadena de subministrament. L'antròpic va mantenir el seu terreny. Això és el que sembla quan les persones que construeixen la tecnologia utilitzen aquesta posició per dibuixar línies. No pots dibuixar línies des de les línies laterals.

**A les xarxes socials: una altra comparació històrica recent.** La refutació òbvia a tot aquest assaig és que abans hem sentit el mateix optimisme. Democratitzar la informació. Connecteu comunitats. Dóna veu a tothom. El que hem aconseguit: polarització, desinformació a escala, una crisi de salut mental dels adolescents i la lenta erosió de la realitat compartida.

M'ho prenc seriosament. Però mireu qui ha causat el dany i qui ho arregla. Facebook va llançar el seu algorisme optimitzat per a la participació el 2006. El 2016, els propis investigadors de la companyia [va trobar que el 64% de les unions a grups extremistes provenien de recomanacions algorítmiques](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-gorithm-al). El lideratge va anomenar la solució "anticreixement" i la va deixar de banda. La primera regulació integral de xarxes socials, [la Llei de serveis digitals de la UE](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), no va arribar fins al 2022. Els EUA encara no en tenen cap. Això són setze anys de societat civil, reguladors i usuaris cedint el camp als incentius de la plataforma.

La correcció, quan finalment va arribar, va venir de gent que es va apropar prou per entendre-ho. [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) xiulant des de dins de Facebook. Investigadors que documenten danys algorítmics. La UE escrivint una nova llei. Pares organitzant. Adolescents que abandonen plataformes que no els donaven servei. Res d'això venia de la gent que es va mantenir allunyada.

Les xarxes socials no desmenteixen la tesi. Ho demostra. El perill no era massa gent que intentava donar forma a la tecnologia. Eren massa pocs, durant massa temps. I aquesta és la postura que els escèptics de la IA estan repetint ara.