El hilo común que noto entre amigos y familiares que son escépticos acerca de la IA no es que se centran en sus limitaciones y riesgos actuales.

Es que concluyen que esos aspectos negativos son motivos para abordarlo tentativamente, en todo caso. Su objetivo es limitar su uso donde las cosas se sientan más seguras, bajo el supuesto de que no mejorará significativamente en el corto plazo. Siempre existe el sentimiento de fondo de que la IA nunca alcanzará suficiente "humanidad" para manejar tareas más importantes.

Se podría suponer que se trata de personas ajenas a la tecnología que carecen de contexto. No lo es. El otoño pasado pasé una semana en Silicon Valley poniéndome al día con amigos de toda la industria tecnológica. Escuché el mismo escepticismo de ingenieros, gerentes de producto y fundadores. No ignorancia de la IA, sino una profunda renuencia a comprometerse con ella. El patrón no se trata de quién entiende la tecnología. Se trata de otra cosa.

He visto este patrón antes con las criptomonedas. Cuando blockchain era un tema candente, los escépticos señalaron el mismo tipo de desconfianza estructural. No sólo "esta tecnología tiene problemas", sino que "estos problemas demuestran que nunca podrá reemplazar lo que ya tenemos". La conclusión era siempre la misma: mantente alejado, espera, deja que alguien más descubra si importa.

## La gente se ensucia las manos

Mis amigos entusiastas también ven las limitaciones y los riesgos. Pero perciben lo rápido que las cosas avanzan y mejoran. Los más entusiastas se unen para abordar los problemas directamente. Construyen nuevas herramientas. Consultan para ayudar a las empresas a adoptar. Comprometen su trabajo diario con esta frontera.

Se enfrentan a las frustraciones de manera más profunda y directa que los escépticos, porque navegan por los altibajos todos los días. Pero aceptan que la única manera de resolver esos problemas es ensuciarse con la tecnología. Con los ojos claros tanto sobre su influencia como sobre sus fracasos.

Los escépticos observan desde lejos y concluyen que los problemas son descalificantes. Los constructores se topan con esos mismos problemas de frente y los tratan como si fueran la obra misma.

## La paradoja

Esto es lo que encuentro sorprendente. Es una prueba de fuego sobre la fe que uno deposita en la capacidad humana.

Quienes adoptan proactivamente las máquinas tienen la mayor fe en el ingenio humano y el control creativo. Creen que podemos dirigir esto. Creen que los problemas tienen solución porque los humanos son capaces de resolverlos.

Quienes ponen objeciones revelan una falta de confianza en los humanos, ya sea como individuos o como instituciones, para guiar la tecnología hacia un lugar que nos sirva. La preocupación no es sólo "la IA tiene fallas". Es "no podemos arreglarlo". O peor: "no se nos puede confiar".

Ese marco también se aplica a las criptomonedas. Los escépticos dijeron que nuestras instituciones monetarias son irremplazables. Los constructores dijeron que los humanos pueden crear nuevas formas de confianza. Un grupo apostó por el status quo. La otra apuesta por la adaptabilidad humana.

Esto no es lo mismo que la fe que reemplaza la evidencia. Pasé siete años en un ecosistema criptográfico donde [la creencia se volvió líquida y la narrativa reemplazó la retroalimentación del producto](/posts/when-the-chain-becomes-the-product). Ese tipo de fe persiste aislándose de la realidad. La fe que estoy describiendo aquí es todo lo contrario. Se trata de abordar directamente los fallos y observar el ritmo de mejora con las propias manos en el trabajo.

## Sin futuro determinado

Si esto suena polarizante, sospecho que sólo lo es si ya tienes un escenario fijo en tu cabeza. Uno en el que compartimos la IA en un conjunto seguro de casos de uso o dejamos que se haga cargo de todo.

Pero no hay un futuro determinado. Nadie ha escrito el guión en el que las personas o los robots desempeñan un papel determinado, y mucho menos prevalecen sobre el otro. El resultado depende de quién se presente para darle forma.

Y darle forma no significa escribir código. Un profesor que descubre cómo la IA cambia lo que los estudiantes necesitan aprender lo está dando forma. Un escritor que utiliza IA para investigar más rápido y publicar de manera más honesta lo está dando forma. La propietaria de una pequeña empresa que automatiza las facturas para poder pasar más tiempo con los clientes está dándole forma. La pregunta no es si tienes habilidades técnicas. Se trata de si te involucras con la tecnología con una mentalidad productiva, dispuesto a superar la fricción porque crees que los humanos pueden hacer algo bueno con ella.

El optimismo que estoy describiendo no es fe en ninguna tecnología en particular. Es fe en la capacidad tecnológica humana, la capacidad acumulada, obstinada y creativa de las personas para tomar herramientas toscas y adaptarlas hacia algo que sirva a la vida. Esa capacidad ha sido la constante en todos los cambios tecnológicos importantes. La pregunta, como siempre, es si confiamos lo suficiente en nosotros mismos como para utilizarlo.

## Posdata: los detalles

Un amigo rechazó este ensayo. A ella le gustó la premisa pero quería detalles. Abordar los verdaderos problemas éticos, dijo, y mostrar a alguien que los aborde con buena fe. De lo contrario, el argumento sigue siendo abstracto.

Ella tiene razón. Así que aquí hay cuatro problemas que plantean los escépticos y cómo se ve cuando la gente se presenta en lugar de dar un paso atrás.

**¿Podemos confiarle a la IA nuestro grupo de expertos?** En Oakland, 17 maestros de escuelas públicas [se unieron a una comunidad de práctica llamada AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). Comenzaron escépticos. Al final, un profesor había reducido la calificación de los ensayos de más de una hora a tres minutos y al mismo tiempo generaba planes de estudio personalizados para cada estudiante. El punto no es la eficiencia. Estos profesores decidieron que deberían ser ellos quienes descubrieran cómo la IA entra en sus aulas, no esperar a que alguien más establezca los términos. Utilizaron IA para recuperar tiempo para las partes de la enseñanza que requieren juicio humano. Nadie entregó su capacidad cognitiva. Lo ampliaron.

**¿Qué pasa con el impacto ambiental?** Esta preocupación es real. Entrenar grandes modelos de IA consume una enorme energía. Pero las personas que trabajan más cerca del problema son también las que impulsan la solución. [Los investigadores de la UCL descubrieron](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) que los cambios prácticos en la configuración de los modelos, como la cuantificación y el uso de modelos especializados más pequeños, pueden reducir la demanda de energía de la IA hasta en un 90 %. [Google redujo 33 veces la energía por mensaje de texto de Gemini](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) en un solo año. [Una prueba de red de Londres](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) utilizando hardware NVIDIA, redujo la demanda de energía del centro de datos en un 40 % en tiempo real. Estos beneficios no provinieron de personas que se negaron a abordar los costes energéticos de la IA. Provenían de personas que midieron el problema y se pusieron a trabajar en él.

**¿Qué pasa con la IA que reproduce prejuicios del pasado?** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) es una artista transmedia de Nueva York. Después de encontrarse con [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html), un robot humanoide diseñado para representar a una mujer negra cuyas respuestas sobre la raza [eran superficiales y reduccionistas](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), no descartó la tecnología. Ella construyó Not the Only One, un chatbot de IA entrenado en [40 horas de historias orales](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) de tres generaciones de mujeres de su propia familia. En lugar de aceptar que los datos de entrenamiento siempre conllevarían un sesgo de cultura dominante, hizo los suyos propios. Sus instalaciones en el Smithsonian y el Queens Museum invitan al público a la misma pregunta: ¿en qué serían nuestras máquinas si las entrenáramos con cuidado? Dinkins no es un informático. Es una artista que decidió que el problema era la obra misma.

**¿Qué pasa con las decisiones gubernamentales y militares?** En febrero de 2026, el Pentágono exigió que Anthropic eliminara las salvaguardias de sus sistemas de inteligencia artificial para permitir la focalización de armas totalmente autónomas y la vigilancia interna masiva. [Antrópico rechazado](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). El director ejecutivo, Dario Amodei, dijo que los sistemas no son lo suficientemente confiables para tomar decisiones letales autónomas y que la vigilancia masiva viola los principios democráticos. El Pentágono [amenazó con cancelar un contrato de 200 millones de dólares](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) y etiquetar a Anthropic como un riesgo para la cadena de suministro. Anthropic se mantuvo firme. Así es como se ve cuando las personas que crean la tecnología usan esa posición para dibujar líneas. No se pueden trazar líneas desde el margen.

**En las redes sociales: otra comparación histórica reciente.** La refutación obvia a todo este ensayo es que hemos escuchado el mismo optimismo antes. democratizar la información. Conectar comunidades. Dale voz a todos. Lo que tenemos: polarización, desinformación a gran escala, una crisis de salud mental adolescente y la lenta erosión de la realidad compartida.

Lo tomo en serio. Pero mire quién causó el daño y quién lo está reparando. Facebook lanzó su algoritmo optimizado para la participación en 2006. En 2016, los propios investigadores de la compañía [descubrieron que el 64 % de las uniones a grupos extremistas procedían de recomendaciones algorítmicas](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms). Los dirigentes llamaron a la solución "anticrecimiento" y la archivaron. La primera regulación integral de las redes sociales, [la Ley de Servicios Digitales de la UE](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), no llegó hasta 2022. Estados Unidos todavía no tiene ninguna. Son dieciséis años en los que la sociedad civil, los reguladores y los usuarios han cedido terreno a los incentivos de las plataformas.

La corrección, cuando finalmente llegó, provino de personas que se acercaron lo suficiente como para entender. [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) denunciando desde dentro de Facebook. Investigadores que documentan daños algorítmicos. La UE redacta una nueva ley. Padres organizándose. Adolescentes que abandonan plataformas que no les servían. Nada de eso provino de las personas que se mantuvieron alejadas.

Las redes sociales no refutan la tesis. Lo demuestra. El peligro no era que mucha gente intentara darle forma a la tecnología. Fueron muy pocos y durante demasiado tiempo. Y esa es la postura que repiten ahora los escépticos de la IA.