O traço comum que noto entre amigos e familiares que são céticos em relação à IA não é que eles se concentrem nas suas limitações e riscos atuais.

É que eles concluem que esses aspectos negativos são motivo para abordar o assunto provisoriamente, se é que o fazem. Eles pretendem limitar seu uso onde as coisas parecem mais seguras, sob a suposição de que não melhorará significativamente tão cedo. Há sempre um sentimento de que a IA nunca alcançará “humanidade” suficiente para lidar com tarefas maiores.

Você pode presumir que se trata de pessoas fora da área de tecnologia que não têm contexto. Não é. No outono passado, passei uma semana no Vale do Silício conversando com amigos da indústria de tecnologia. Ouvi o mesmo ceticismo de engenheiros, gerentes de produto e fundadores. Não a ignorância da IA, mas uma profunda relutância em comprometer-se com ela. O padrão não é sobre quem entende a tecnologia. É sobre outra coisa.

Já vi esse padrão antes com criptografia. Quando o blockchain era um tema popular, os céticos apontavam para o mesmo tipo de desconfiança estrutural. Não apenas “esta tecnologia tem problemas”, mas “esses problemas provam que ela nunca poderá substituir o que já temos”. A conclusão era sempre a mesma: fique longe, espere, deixe alguém descobrir se isso importa.

## As pessoas sujando as mãos

Meus amigos entusiasmados também veem as limitações e os riscos. Mas eles percebem o quão rápido as coisas se movem e melhoram. Os mais entusiasmados juntam-se para resolver os problemas diretamente. Eles constroem novas ferramentas. Eles prestam consultoria para ajudar as empresas a adotar. Eles dedicam seu trabalho diário a esta fronteira.

Eles enfrentam frustrações de forma mais profunda e direta do que os céticos, porque passam por altos e baixos todos os dias. Mas eles aceitam que a única maneira de resolver esses problemas é sujar-se com a tecnologia. Tenha uma visão clara tanto da sua vantagem como dos seus fracassos.

Os céticos observam à distância e concluem que os problemas são desqualificantes. Os construtores enfrentam esses mesmos problemas de frente e os tratam como se fossem a obra em si.

## O paradoxo

Aqui está o que considero impressionante. É um teste decisivo sobre a fé que se deposita na capacidade humana.

Aqueles que adotam proativamente as máquinas são os que mais confiam na engenhosidade humana e no controle criativo. Eles acreditam que podemos orientar isso. Eles acreditam que os problemas podem ser resolvidos porque os humanos são capazes de resolvê-los.

Aqueles que hesitam revelam falta de confiança nos seres humanos, seja como indivíduos ou como instituições, para guiar a tecnologia para um lugar que nos sirva. A preocupação não é apenas “a IA tem falhas”. É "não podemos consertar isso". Ou pior: “não podemos confiar nisso”.

Esse enquadramento também se aplica à criptografia. Os céticos disseram que as nossas instituições monetárias são insubstituíveis. Os construtores disseram que os humanos podem criar novas formas de confiança. Um grupo apostou no status quo. A outra aposta na adaptabilidade humana.

Isto não é o mesmo que a fé que substitui a evidência. Passei sete anos em um ecossistema criptográfico onde [a crença se tornou líquida e a narrativa substituiu o feedback do produto](/posts/when-the-chain-becomes-the-product). Esse tipo de fé persiste isolando-se da realidade. A fé que estou descrevendo aqui é o oposto. Isso vem do envolvimento direto com as falhas e da observação da taxa de melhoria com suas próprias mãos no trabalho.

## Sem futuro determinado

Se isso parece polarizador, suspeito que só será assim se você já tiver um cenário fixo em sua cabeça. Aquele em que compartimentamos a IA em algum conjunto seguro de casos de uso ou deixamos que ela assuma o controle de tudo.

Mas não há futuro determinado. Ninguém escreveu o roteiro no qual as pessoas ou os bots desempenham um determinado papel, muito menos prevalecem sobre os outros. O resultado depende de quem aparece para moldá-lo.

E moldá-lo não significa escrever código. Um professor que descobre como a IA muda o que os alunos precisam aprender está moldando-a. Um escritor que usa IA para pesquisar com mais rapidez e publicar com mais honestidade está moldando isso. Uma pequena empresa que automatiza faturas para poder passar mais tempo com os clientes está moldando isso. A questão não é se você tem habilidades técnicas. É se você se envolve com a tecnologia com uma mentalidade produtiva, disposto a superar o atrito porque acredita que os humanos podem fazer algo de bom com isso.

O otimismo que estou descrevendo não é a fé em nenhuma tecnologia específica. É a fé na capacidade tecnológica humana, na capacidade acumulada, teimosa e criativa das pessoas para pegarem em ferramentas rústicas e dobrá-las para algo que sirva a vida. Essa capacidade tem sido constante em todas as grandes mudanças tecnológicas. A questão, como sempre, é se confiamos em nós mesmos o suficiente para usá-lo.

## Pós-escrito: os detalhes

Um amigo rejeitou este ensaio. Ela gostou da premissa, mas queria detalhes. Assuma os verdadeiros problemas éticos, disse ela, e mostre alguém abordando cada um deles com boa fé. Caso contrário, o argumento permanece abstrato.

Ela está certa. Portanto, aqui estão quatro problemas levantados pelos céticos e o que acontece quando as pessoas aparecem em vez de recuar.

**Podemos confiar na inteligência artificial?** Em Oakland, 17 professores de escolas públicas [juntaram-se a uma comunidade de prática chamada AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). Eles começaram céticos. No final, um professor reduziu a avaliação das redações de mais de uma hora para três minutos enquanto gerava planos de estudo personalizados para cada aluno. A questão não é a eficiência. Esses professores decidiram que deveriam ser eles a descobrir como a IA entra em suas salas de aula, e não esperar que outra pessoa estabeleça os termos. Eles usaram a IA para recuperar tempo para as partes do ensino que exigem julgamento humano. Ninguém entregou sua capacidade cognitiva. Eles expandiram isso.

**E quanto ao impacto ambiental?** Essa preocupação é real. Treinar grandes modelos de IA consome enorme energia. Mas as pessoas que trabalham mais próximas do problema são também as que conduzem a solução. [Os pesquisadores da UCL descobriram](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) que mudanças práticas na forma como os modelos são configurados, como a quantização e o uso de modelos especializados menores, podem reduzir a demanda de energia da IA ​​em até 90%. [O Google reduziu a energia por solicitação de texto do Gemini em 33 vezes](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) em um único ano. [Um teste de rede em Londres](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) usando hardware NVIDIA reduziu a demanda de energia do data center em 40% em tempo real. Estes ganhos não vieram de pessoas que se recusaram a lidar com os custos de energia da IA. Eles vieram de pessoas que mediram o problema e trabalharam nele.

**E quanto à IA reproduzir preconceitos do passado?** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) é uma artista transmídia em Nova York. Depois de encontrar [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html), um robô humanóide projetado para representar uma mulher negra cujas respostas sobre raça [eram superficiais e redutoras](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), ela não descartou a tecnologia. Ela criou o Not the Only One, um chatbot de IA treinado em [40 horas de histórias orais](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) de três gerações de mulheres de sua própria família. Em vez de aceitar que os dados de treinamento sempre carregariam preconceitos de cultura dominante, ela criou os seus próprios. Suas instalações no Smithsonian e no Queens Museum convidam o público à mesma questão: o que seriam as nossas máquinas se as treinássemos com cuidado? Dinkins não é um cientista da computação. Ela é uma artista que decidiu que o problema era o próprio trabalho.

**E quanto às decisões governamentais e militares?** Em fevereiro de 2026, o Pentágono exigiu que a Antrópico removesse as salvaguardas dos seus sistemas de IA para permitir o direcionamento de armas totalmente autónomo e a vigilância doméstica em massa. [Anthropic recusou](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). O CEO Dario Amodei disse que os sistemas não são suficientemente fiáveis ​​para decisões letais autónomas e que a vigilância em massa viola os princípios democráticos. O Pentágono [ameaçou cancelar um contrato de US$ 200 milhões](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) e classificou a Antrópico como um risco na cadeia de suprimentos. A Antrópica manteve sua posição. É assim que acontece quando as pessoas que constroem a tecnologia usam essa posição para traçar limites. Você não pode traçar linhas paralelas.

**Nas redes sociais: outra comparação histórica recente.** A refutação óbvia a todo este ensaio é que já ouvimos o mesmo otimismo antes. Democratizar a informação. Conecte comunidades. Dê voz a todos. O que obtivemos: polarização, desinformação em grande escala, uma crise de saúde mental entre adolescentes e a lenta erosão da realidade partilhada.

Eu levo isso a sério. Mas veja quem causou o dano e quem o está consertando. O Facebook lançou seu algoritmo otimizado para engajamento em 2006. Em 2016, os próprios pesquisadores da empresa [descobriram que 64% das adesões a grupos extremistas vieram de recomendações algorítmicas](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms). A liderança chamou a solução de “anticrescimento” e a arquivou. A primeira regulamentação abrangente das redes sociais, [a Lei dos Serviços Digitais da UE](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), só chegou em 2022. Os EUA ainda não têm nenhuma. São dezasseis anos em que a sociedade civil, os reguladores e os utilizadores cederam o campo aos incentivos das plataformas.

A correção, quando finalmente veio, veio de pessoas que chegaram perto o suficiente para entender. [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) denunciando de dentro do Facebook. Pesquisadores documentando danos algorítmicos. A UE redigindo nova lei. Organização dos pais. Adolescentes abandonando plataformas que não os serviam. Nada disso veio das pessoas que ficaram longe.

A mídia social não refuta a tese. Isso prova isso. O perigo não eram muitas pessoas tentando moldar a tecnologia. Foi muito pouco, por muito tempo. E essa é a postura que os céticos da IA ​​estão repetindo agora.