Общая черта, которую я заметил среди друзей и родственников, скептически относящихся к ИИ, заключается не в том, что они сосредотачиваются на его текущих ограничениях и рисках.

Они заключают, что эти негативы являются причиной подойти к этому осторожно, если вообще подойти. Они стремятся ограничить его использование там, где все кажется наиболее безопасным, исходя из предположения, что в ближайшее время оно не станет значительно лучше. Всегда существует мнение, что ИИ никогда не достигнет достаточной «человечности» для решения более серьезных задач.

Вы можете предположить, что речь идет о людях, не связанных с технологиями, которым не хватает контекста. Это не так. Прошлой осенью я провел неделю в Кремниевой долине, общаясь с друзьями из технологической индустрии. Тот же скептицизм я слышал от инженеров, менеджеров по продуктам и основателей. Не незнание ИИ, а глубокое нежелание заниматься им. Принцип не в том, кто понимает технологию. Речь идет о другом.

Я уже видел эту закономерность раньше в криптографии. Когда блокчейн был горячей темой, скептики указывали на такое же структурное недоверие. Не просто «у этой технологии есть проблемы», но «эти проблемы доказывают, что она никогда не сможет заменить то, что у нас уже есть». Вывод всегда был один и тот же: держись подальше, подожди, пусть кто-нибудь другой разберется, имеет ли это значение.

## Люди пачкают руки

Мои друзья-энтузиасты также видят ограничения и риски. Но они понимают, как быстро все движется и улучшается. Самые полные энтузиазма присоединяются к решению проблем напрямую. Они создают новые инструменты. Они консультируют, чтобы помочь компаниям принять. Они посвящают свою повседневную работу этой границе.

Они сталкиваются с разочарованиями более тщательно и непосредственно, чем скептики, потому что каждый день преодолевают взлеты и падения. Но они признают, что единственный способ решить эти проблемы — это испачкаться с технологиями. Ясный взгляд как на свои рычаги воздействия, так и на свои неудачи.

Скептики наблюдают со стороны и приходят к выводу, что проблемы дисквалифицируют. Строители сталкиваются с теми же проблемами и относятся к ним как к самой работе.

## Парадокс

Вот что меня поразило. Это лакмусовая бумажка веры в человеческие способности.

Те, кто активно использует машины, больше всего верят в человеческую изобретательность и творческий контроль. Они верят, что мы можем этим управлять. Они верят, что проблемы разрешимы, потому что люди способны их решить.

Те, кто возражает, демонстрируют отсутствие уверенности в людях, будь то как личности или как учреждения, в том, что они смогут направить технологию туда, где она будет служить нам. Беспокойство вызывает не только то, что «ИИ несовершенен». Это «мы не можем это исправить». Или еще хуже: «нам этого нельзя доверить».

Эта формулировка применима и к криптовалюте. Скептики говорили, что наши денежные институты незаменимы. Строители заявили, что люди могут создавать новые формы доверия. Одна группа сделала ставку на статус-кво. Другая ставка на человеческую адаптивность.

Это не то же самое, что вера, заменяющая доказательства. Я провел семь лет в криптоэкосистеме, где [убеждения стали текучими, а повествование заменило отзывы о продукте](/posts/when-the-chain-becomes-the-product). Такая вера сохраняется, изолируя себя от реальности. Вера, которую я здесь описываю, является противоположностью. Это происходит благодаря непосредственному устранению неудач и собственному наблюдению за скоростью улучшения в работе.

## Нет определенного будущего

Если это звучит противоречиво, я подозреваю, что так кажется только в том случае, если у вас в голове уже есть фиксированный сценарий. Тот, в котором мы либо разделяем ИИ на некий безопасный набор вариантов использования, либо позволяем ему взять на себя все.

Но определенного будущего нет. Никто не написал сценарий, в котором люди или боты будут играть какую-то конкретную роль, не говоря уже о том, чтобы преобладать над другими. Результат зависит от того, кто примет участие в его формировании.

И его формирование не означает написание кода. Учитель, понимающий, как ИИ меняет то, что ученики должны изучать, формирует это. Писатель, использующий ИИ для более быстрого исследования и более честной публикации, формирует его. Владелец малого бизнеса автоматизирует выставление счетов, чтобы проводить больше времени с клиентами, и формирует его. Вопрос не в том, есть ли у вас технические навыки. Вопрос в том, используете ли вы технологию с продуктивным мышлением, готовые преодолевать трудности, потому что верите, что люди могут извлечь из этого что-то хорошее.

Оптимизм, который я описываю, не является верой в какую-то конкретную технологию. Это вера в технологические возможности человека, в накопленную, упрямую, творческую способность людей брать грубые инструменты и направлять их на то, что служит жизни. Эта мощность была постоянной при каждом крупном технологическом сдвиге. Вопрос, как всегда, в том, достаточно ли мы доверяем себе, чтобы его использовать.

## Постскриптум: особенности

Друг отказался от этого эссе. Ей понравилась идея, но она хотела конкретики. Возьмите на себя настоящие этические проблемы, сказала она, и покажите, что кто-то добросовестно решает каждую из них. В противном случае аргумент останется абстрактным.

Она права. Итак, вот четыре проблемы, которые поднимают скептики, и как это выглядит, когда люди появляются, а не отступают.

**Можем ли мы доверять ИИ своим мозговым доверием?** В Окленде 17 учителей государственных школ [присоединились к сообществу практиков под названием AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). Они начали сомневаться. В конце концов один учитель сократил выставление оценок за эссе с часа до трех минут, одновременно составляя персональные планы обучения для каждого ученика. Дело не в эффективности. Эти учителя решили, что именно они должны выяснить, как ИИ проникает в их классы, а не ждать, пока кто-то другой установит условия. Они использовали ИИ, чтобы высвободить время для тех частей обучения, которые требуют человеческого суждения. Никто не передал свои когнитивные способности. Они расширили его.

**А как насчет воздействия на окружающую среду?** Это беспокойство вполне реально. Обучение больших моделей ИИ требует огромной энергии. Но люди, работающие ближе всего к проблеме, также являются теми, кто ее решает. [Исследователи UCL обнаружили](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90), что практические изменения в настройке моделей, такие как квантование и использование более мелких специализированных моделей, могут снизить потребность ИИ в энергии до 90%. [Google сократил потребление энергии на каждое текстовое сообщение Близнецов в 33 раза](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) за один год. [Испытание лондонской сети](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) с использованием оборудования NVIDIA снизило энергопотребление центра обработки данных на 40 % в режиме реального времени. Эти выгоды пришли не от людей, которые отказались участвовать в затратах на электроэнергию ИИ. Они исходили от людей, которые измерили проблему и приступили к ее решению.

**А как насчет искусственного интеллекта, воспроизводящего предубеждения прошлого?** [Стефани Динкинс](https://www.stephaniedinkins.com/ntoo.html) — трансмедийный художник из Нью-Йорка. После встречи с [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html), роботом-гуманоидом, призванным изображать чернокожую женщину, чьи ответы о расе [были поверхностными и упрощенными](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), она не стала списывать со счетов эту технологию. Она создала Not the Only One, чат-бота с искусственным интеллектом, обученного [40 часам устных историй](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) на основе трех поколений женщин из ее собственной семьи. Вместо того, чтобы признать, что данные обучения всегда будут содержать предвзятость в отношении доминирующей культуры, она создала свою собственную. Ее инсталляции в Смитсоновском институте и музее Квинса заставляют публику задаться одним и тем же вопросом: какими стали бы наши машины, если бы мы их тщательно обучили? Динкинс не ученый-компьютерщик. Она художница, которая решила, что проблема в самой работе.

**А как насчет правительственных и военных решений?** В феврале 2026 года Пентагон потребовал от Anthropic снять меры защиты со своих систем искусственного интеллекта, чтобы обеспечить полностью автономное нацеливание оружия и массовое наблюдение внутри страны. [Антропический отказ](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). Генеральный директор Дарио Амодей заявил, что системы недостаточно надежны для принятия автономных смертоносных решений и что массовое наблюдение нарушает демократические принципы. Пентагон [пригрозил расторгнуть контракт на 200 миллионов долларов](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) и обозначить Anthropic как риск для цепочки поставок. Anthropic удержала свои позиции. Вот как это выглядит, когда люди, создающие технологию, используют это положение для рисования линий. Вы не можете проводить линии по бокам.

**В социальных сетях: еще одно недавнее историческое сравнение.** Очевидным опровержением всего этого эссе является то, что мы слышали тот же оптимизм и раньше. Демократизация информации. Объединяйте сообщества. Дайте каждому голос. Что мы получили: поляризация, масштабная дезинформация, кризис психического здоровья подростков и медленное разрушение общей реальности.

Я отношусь к этому серьезно. Но посмотрите, кто нанес ущерб и кто его устраняет. Facebook запустил свой алгоритм, оптимизированный для взаимодействия, в 2006 году. К 2016 году собственные исследователи компании [обнаружили, что 64% ​​присоединений к экстремистским группам происходят благодаря алгоритмическим рекомендациям](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms). Руководство назвало решение «антиросту» и отложило его. Первое всеобъемлющее регулирование социальных сетей, [Закон ЕС о цифровых услугах](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), появилось только в 2022 году. В США его до сих пор нет. Это шестнадцать лет, когда гражданское общество, регулирующие органы и пользователи уступили поле стимулам платформы.

Исправление, когда оно наконец пришло, пришло от людей, которые подошли достаточно близко, чтобы понять. [Фрэнсис Хауген](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) сообщает об этом изнутри Facebook. Исследователи документируют алгоритмический вред. ЕС пишет новый закон. Родители организуют. Подростки покидают платформы, которые их не обслуживают. Ничего из этого не исходило от людей, которые остались в стороне.

Социальные сети не опровергают этот тезис. Это доказывает это. Опасность заключалась не в том, что слишком много людей пытались сформировать технологию. Их было слишком мало и слишком долго. И именно эту позицию сейчас повторяют скептики ИИ.