我注意到，对人工智能持怀疑态度的朋友和家人的共同点并不是他们关注人工智能当前的局限性和风险。

他们得出的结论是，如果有的话，这些负面因素是尝试性接近它的理由。他们的目标是将其使用限制在感觉最安全的地方，假设它不会很快得到有意义的改善。总有一种背景情绪认为人工智能永远无法实现足够的“人性”来处理更伟大的任务。

您可能会认为这是关于缺乏背景的技术之外的人。事实并非如此。去年秋天，我在硅谷呆了一周，与科技行业的朋友们进行了交流。我从工程师、产品经理和创始人那里听到了同样的怀疑。并不是对人工智能的无知，而是非常不愿意投入其中。该模式与谁了解该技术无关。这是关于其他事情的。

我以前在加密领域见过这种模式。当区块链成为热门主流话题时，怀疑论者指出了同样的结构性不信任。不仅仅是“这项技术存在问题”，而且“这些问题证明它永远无法取代我们已有的技术。”结论总是一样的：远离，等待，让别人弄清楚这是否重要。

## 人们亲自动手

我的热心朋友也看到了局限性和风险。但他们能够感知事物发展和改进的速度有多快。最热情的人加入进来直接解决问题。他们开发新工具。他们提供咨询以帮助公司采用。他们将日常工作投入到这一领域。

他们比怀疑论者更彻底、更直接地遇到挫折，因为他们每天都在经历起起落落。但他们承认解决这些问题的唯一方法就是利用技术。对它的杠杆作用和它的失败有着清醒的认识。

怀疑论者从远处观察并得出结论，这些问题是不合格的。建设者正面遇到了同样的问题，并将它们视为工作本身。

## 悖论

这就是我觉得引人注目的地方。这是对人类能力信心的试金石。

那些主动拥抱机器的人对人类的聪明才智和创造性控制最有信心。他们相信我们可以掌控这一切。他们相信这些问题是可以解决的，因为人类有能力解决它们。

那些提出异议的人表明，无论是作为个人还是作为机构，人们对人类缺乏信心，无法引导技术为我们服务。令人担忧的不仅仅是“人工智能有缺陷”。这是“我们无法解决它”。或者更糟糕的是：“我们不能相信它。”

这个框架也适用于加密货币。怀疑论者说我们的货币机构是不可替代的。建设者们表示，人类可以创造新形式的信任。一组人押注于现状。另一个赌注是人类的适应性。

这与用信仰代替证据不同。我在加密生态系统中度过了七年，其中[信念变得流动，叙事取代了产品反馈](/posts/when-the-chain-becomes-the-product)。这种信仰通过脱离现实而得以坚持。我在这里描述的信仰是相反的。它来自于直接面对失败并在工作中亲手观察改进的速度。

## 没有确定的未来

如果这听起来很两极分化，我怀疑只有当你脑子里已经有了固定的场景时才会有这种感觉。我们要么将人工智能划分为一组安全的用例，要么让它接管一切。

但没有确定的未来。没有人编写过让人类或机器人扮演任何特定角色的脚本，更不用说战胜对方了。结果取决于谁来塑造它。

塑造它并不意味着编写代码。教师如果弄清楚人工智能如何改变学生需要学习的内容，那么他​​就正在塑造它。一位作家利用人工智能更快地研究、更诚实地出版，正在塑造它。一位小企业主正在塑造这种自动化发票，这样她就可以花更多的时间与客户打交道。问题不在于你是否拥有技术技能。关键在于你是否以富有成效的心态接触技术，是否愿意克服摩擦，因为你相信人类可以从中创造出美好的东西。

我所描述的乐观并不是对任何特定技术的信心。它是对人类技术能力的信仰，是人们积累的、顽固的、创造性的能力，能够使用粗糙的工具并将其用于服务于生活的事物。这种能力在每一次重大技术变革中都是不变的。与往常一样，问题是我们是否足够信任自己来使用它。

## 后记：具体内容

一位朋友反驳了这篇文章。她喜欢这个前提，但想要具体细节。她说，面对真正的道德问题，并表明有人真诚地解决每一个问题。否则这个论证就显得抽象了。

她是对的。以下是怀疑论者提出的四个问题，以及当人们出现而不是退缩时会是什么样子。

**我们可以用智囊团来信任人工智能吗？** 在奥克兰，17 名公立学校教师[加入了一个名为“AI Together”的实践社区](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assections/)。他们开始怀疑。最后，一位老师将论文评分从一个多小时缩短到三分钟，同时为每个学生制定个性化的学习计划。重点不是效率。这些老师认为他们应该弄清楚人工智能如何进入他们的课堂，而不是等待其他人设定条款。他们利用人工智能为需要人类判断的教学部分节省时间。没有人交出他们的认知能力。他们扩大了它。

**环境影响如何？** 这种担忧是真实存在的。训练大型人工智能模型会消耗大量能量。但最接近问题的人也是推动解决问题的人。 [UCL 研究人员发现](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) 对模型配置方式进行实际改变，例如量化和使用更小的专用模型，可以将 AI 能源需求减少高达 90%。 [Google 在一年内将每个 Gemini 文本提示的能量减少了 33 倍](https://cloud.google.com/blog/products/infrastruct/measuring-the-environmental-impact-of-ai-inference/)。 [伦敦电网试验](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) 使用 NVIDIA 硬件将数据中心电力需求实时削减 40%。这些收益并不是来自那些拒绝关注人工智能能源成本的人。他们来自那些衡量问题并着手解决问题的人。

**人工智能再现过去的偏见怎么样？** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) 是纽约的一位跨媒体艺术家。在遇到 [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html)（一个设计用来代表黑人女性的人形机器人，她对种族的反应[肤浅且还原](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2)）之后，她并没有放弃这项技术。她构建了 Not the Only One，这是一款人工智能聊天机器人，接受了她家族中三代女性的 [40 小时口述历史](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) 的训练。她没有接受训练数据总是带有主流文化偏见，而是创造了自己的数据。她在史密森尼和皇后博物馆的装置作品向公众提出了同样的问题：如果我们精心训练，我们的机器会变成什么样子？丁金斯不是计算机科学家。她是一位认为问题出在作品本身的艺术家。

**政府和军事决策呢？** 2026 年 2 月，五角大楼要求 Anthropic 取消其人工智能系统的保障措施，以允许完全自主的武器瞄准和大规模国内监视。 [人类拒绝](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/)。首席执行官达里奥·阿莫迪表示，这些系统不够可靠，无法自主做出致命决定，而且大规模监视违反了民主原则。五角大楼[威胁取消价值 2 亿美元的合同](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) 并将 Anthropic 标记为供应链风险。人类坚守阵地。这就是构建该技术的人使用该位置画线时的样子。你不能从边线画线。

**在社交媒体上：另一个最近的历史比较。** 对整篇文章的明显反驳是我们之前听到过同样的乐观情绪。信息民主化。连接社区。让每个人都有发言权。我们得到的是：两极分化、大规模错误信息、青少年心理健康危机以及共同现实的缓慢侵蚀。

我认真对待这一点。但看看谁造成了损害以及谁在修复它。 Facebook 于 2006 年推出了参与度优化算法。到 2016 年，该公司自己的研究人员[发现 64% 的极端主义团体加入来自算法推荐](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms)。领导层称该解决方案为“反增长”，并将其搁置。第一个全面的社交媒体监管，[欧盟数字服务法案](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en)直到 2022 年才出台。美国仍然没有。这是民间社会、监管机构和用户将这一领域让给平台激励措施的十六年。

当纠正最终出现时，来自那些足够接近并能够理解的人。 [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) 从 Facebook 内部吹哨。研究人员记录了算法的危害。欧盟正在制定新法律。家长组织。青少年离开不为他们服务的平台。这些都不是来自那些远离的人。

社交媒体并没有反驳这一论点。它证明了这一点。危险并不在于太多人试图塑造这项技术。数量太少，时间太长。这就是人工智能怀疑论者现在正在重复的立场。