Der gemeinsame Nenner, den ich bei Freunden und Familienangehörigen bemerke, die der KI skeptisch gegenüberstehen, ist nicht, dass sie sich auf die aktuellen Einschränkungen und Risiken konzentrieren.

Sie kommen zu dem Schluss, dass diese negativen Aspekte einen Grund darstellen, die Sache, wenn überhaupt, vorsichtig anzugehen. Ihr Ziel ist es, den Einsatz auf die Bereiche zu beschränken, in denen es sich am sichersten anfühlt, in der Annahme, dass es in absehbarer Zeit nicht wesentlich besser werden wird. Im Hintergrund herrscht immer das Gefühl, dass KI nie genug „Menschlichkeit“ erreichen wird, um die größeren Aufgaben zu bewältigen.

Man könnte annehmen, dass es hier um Leute außerhalb der Technik geht, denen es an Kontext mangelt. Das ist es nicht. Letzten Herbst habe ich eine Woche im Silicon Valley verbracht und mich mit Freunden aus der Technologiebranche getroffen. Ich habe die gleiche Skepsis von Ingenieuren, Produktmanagern und Gründern gehört. Nicht Unwissenheit über KI, sondern ein tiefer Widerwille, sich darauf einzulassen. Bei dem Muster geht es nicht darum, wer die Technologie versteht. Es geht um etwas anderes.

Ich habe dieses Muster schon einmal bei Krypto gesehen. Als Blockchain ein heißes Mainstream-Thema war, wiesen Skeptiker auf die gleiche Art von strukturellem Misstrauen hin. Nicht nur „diese Technologie hat Probleme“, sondern „diese Probleme beweisen, dass sie niemals das ersetzen kann, was wir bereits haben.“ Die Schlussfolgerung war immer dieselbe: Finger weg, abwarten, jemand anderen herausfinden lassen, ob es wichtig ist.

## Die Leute machen sich die Hände schmutzig

Auch meine begeisterten Freunde sehen die Grenzen und Risiken. Aber sie nehmen wahr, wie schnell sich die Dinge bewegen und verbessern. Die Enthusiastischsten machen mit und gehen die Probleme direkt an. Sie bauen neue Werkzeuge. Sie beraten Unternehmen, um sie bei der Einführung zu unterstützen. Sie widmen ihre tägliche Arbeit dieser Grenze.

Sie begegnen Frustrationen gründlicher und direkter als die Skeptiker, weil sie jeden Tag durch die Höhen und Tiefen navigieren. Aber sie akzeptieren, dass die einzige Möglichkeit, diese Probleme zu lösen, darin besteht, sich mit der Technik herumzuschlagen. Klarer Blick sowohl hinsichtlich seiner Hebelwirkung als auch seiner Fehler.

Die Skeptiker beobachten aus der Distanz und kommen zu dem Schluss, dass die Probleme disqualifizierend sind. Die Bauherren stoßen direkt auf dieselben Probleme und behandeln sie als die Arbeit selbst.

## Das Paradoxon

Folgendes finde ich auffällig. Es ist ein Lackmustest für das Vertrauen, das man in die menschlichen Fähigkeiten setzt.

Diejenigen, die die Maschinen proaktiv nutzen, haben das größte Vertrauen in den menschlichen Einfallsreichtum und die kreative Kontrolle. Sie glauben, dass wir das steuern können. Sie glauben, dass die Probleme lösbar sind, weil der Mensch in der Lage ist, sie zu lösen.

Diejenigen, die sich dagegen wehren, offenbaren einen Mangel an Vertrauen in die Menschen, sei es als Individuen oder als Institutionen, die Technologie an einen Ort zu lenken, der uns dient. Die Sorge besteht nicht nur darin, dass „KI fehlerhaft ist“. Es heißt: „Wir können es nicht reparieren.“ Oder noch schlimmer: „Das kann man uns nicht anvertrauen.“

Dieser Rahmen gilt auch für Krypto. Die Skeptiker sagten, unsere Währungsinstitutionen seien unersetzlich. Die Erbauer sagten, dass Menschen neue Formen des Vertrauens schaffen können. Eine Gruppe setzte auf den Status Quo. Die anderen setzen auf die Anpassungsfähigkeit des Menschen.

Das ist nicht dasselbe wie der Glaube, der Beweise ersetzt. Ich habe sieben Jahre in einem Krypto-Ökosystem verbracht, in dem [der Glaube flüssiger wurde und die Erzählung das Produkt-Feedback ersetzte](/posts/when-the-chain-becomes-the-product). Diese Art von Glaube bleibt bestehen, indem er sich von der Realität isoliert. Der Glaube, den ich hier beschreibe, ist das Gegenteil. Dies geschieht durch die direkte Auseinandersetzung mit den Fehlern und die Beobachtung der Verbesserungsrate mit eigenen Händen bei der Arbeit.

## Keine bestimmte Zukunft

Wenn das polarisierend klingt, vermute ich, dass es sich nur dann so anfühlt, wenn man bereits ein festes Szenario im Kopf hat. Eines, bei dem wir die KI entweder in eine Reihe sicherer Anwendungsfälle unterteilen oder sie alles übernehmen lassen.

Aber es gibt keine bestimmte Zukunft. Niemand hat das Drehbuch geschrieben, in dem Menschen oder Bots eine bestimmte Rolle spielen, geschweige denn die Oberhand über die anderen gewinnen. Das Ergebnis hängt davon ab, wer auftaucht, um es zu gestalten.

Und es zu gestalten bedeutet nicht, Code zu schreiben. Ein Lehrer, der herausfindet, wie KI verändert, was Schüler lernen müssen, formt es. Ein Autor, der KI nutzt, um schneller zu recherchieren und ehrlicher zu veröffentlichen, prägt es. Eine Kleinunternehmerin, die Rechnungen automatisiert, damit sie mehr Zeit mit den Kunden verbringen kann, ist dabei, dies zu gestalten. Die Frage ist nicht, ob Sie über technische Fähigkeiten verfügen. Es kommt darauf an, ob Sie mit einer produktiven Denkweise mit der Technologie umgehen und bereit sind, die Hürden zu überwinden, weil Sie glauben, dass Menschen daraus etwas Gutes machen können.

Der Optimismus, den ich beschreibe, ist kein Glaube an eine bestimmte Technologie. Es ist der Glaube an die technologische Leistungsfähigkeit des Menschen, die angesammelte, hartnäckige, kreative Fähigkeit der Menschen, grobe Werkzeuge zu nehmen und sie zu etwas zu formen, das dem Leben dient. Diese Kapazität war bei jedem großen technologischen Wandel die Konstante. Die Frage ist wie immer, ob wir uns selbst genug vertrauen, um es zu nutzen.

## Nachtrag: die Einzelheiten

Ein Freund lehnte diesen Aufsatz ab. Ihr gefiel die Prämisse, sie wollte aber Einzelheiten. Nehmen Sie die wirklichen ethischen Probleme an, sagte sie, und zeigen Sie, dass jemand mit gutem Glauben jedes einzelne Problem angeht. Ansonsten bleibt das Argument abstrakt.

Sie hat recht. Hier sind also vier Probleme, die Skeptiker ansprechen, und wie es aussieht, wenn Leute auftauchen, anstatt einen Schritt zurückzutreten.

**Können wir der KI unser Gehirnvertrauen anvertrauen?** In Oakland schlossen sich 17 Lehrer öffentlicher Schulen einer Praxisgemeinschaft namens „AI Together“ an (https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). Sie begannen skeptisch. Am Ende konnte ein Lehrer die Benotung von Aufsätzen von über einer Stunde auf drei Minuten verkürzen und gleichzeitig individuelle Lernpläne für jeden Schüler erstellen. Der Punkt ist nicht die Effizienz. Diese Lehrer entschieden, dass sie diejenigen sein sollten, die herausfinden sollten, wie KI in ihre Klassenzimmer gelangt, und nicht darauf warten sollten, dass jemand anderes die Bedingungen festlegt. Sie nutzten KI, um Zeit für die Teile des Unterrichts zurückzugewinnen, die menschliches Urteilsvermögen erfordern. Niemand hat seine kognitiven Fähigkeiten aufgegeben. Sie haben es erweitert.

**Was ist mit den Auswirkungen auf die Umwelt?** Diese Sorge ist real. Das Training großer KI-Modelle verbraucht enorme Energie. Aber die Leute, die am nächsten an dem Problem arbeiten, sind auch diejenigen, die die Lösung vorantreiben. [UCL-Forscher fanden heraus](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90), dass praktische Änderungen an der Konfiguration von Modellen, wie Quantisierung und die Verwendung kleinerer Spezialmodelle, den KI-Energiebedarf um bis zu 90 % senken können. [Google hat den Energieverbrauch pro Gemini-Textaufforderung um das 33-fache gesenkt](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) in einem einzigen Jahr. [Ein Londoner Netzversuch](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) mit NVIDIA-Hardware senkte den Strombedarf von Rechenzentren in Echtzeit um 40 %. Diese Gewinne kamen nicht von Leuten, die sich weigerten, sich mit den Energiekosten der KI auseinanderzusetzen. Sie kamen von Leuten, die das Problem erkannten und daran arbeiteten.

**Was ist mit der Reproduktion früherer Vorurteile durch KI?** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) ist eine Transmedia-Künstlerin in New York. Nachdem sie [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html) begegnet war, einen humanoiden Roboter, der eine schwarze Frau darstellen sollte, deren Reaktionen auf Rasse [oberflächlich und reduktiv waren](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), hat sie die Technologie nicht abgeschrieben. Sie entwickelte Not the Only One, einen KI-Chatbot, der auf [40 Stunden mündlicher Überlieferungen](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) von drei Generationen von Frauen in ihrer eigenen Familie trainiert wurde. Anstatt zu akzeptieren, dass Trainingsdaten immer von der vorherrschenden Kultur beeinflusst sein würden, hat sie ihre eigenen Daten erstellt. Ihre Installationen im Smithsonian and Queens Museum laden die Öffentlichkeit zu derselben Frage ein: Was würden unsere Maschinen werden, wenn wir sie sorgfältig trainieren würden? Dinkins ist kein Informatiker. Sie ist eine Künstlerin, die entschied, dass das Problem das Werk selbst sei.

**Was ist mit Regierungs- und Militärentscheidungen?** Im Februar 2026 forderte das Pentagon Anthropic auf, Schutzmaßnahmen aus seinen KI-Systemen zu entfernen, um eine vollständig autonome Waffenzielerfassung und Massenüberwachung im Inland zu ermöglichen. [Anthropic lehnte ab](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). CEO Dario Amodei sagte, die Systeme seien nicht zuverlässig genug für autonome tödliche Entscheidungen und Massenüberwachung verstoße gegen demokratische Grundsätze. Das Pentagon [drohte damit, einen 200-Millionen-Dollar-Vertrag zu kündigen](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) und bezeichnete Anthropic als Lieferkettenrisiko. Anthropic behauptete sich. So sieht es aus, wenn Leute, die die Technologie entwickeln, diese Position nutzen, um Linien zu zeichnen. Von der Seitenlinie aus kann man keine Grenzen ziehen.

**In den sozialen Medien: ein weiterer aktueller historischer Vergleich.** Die offensichtliche Widerlegung dieses ganzen Aufsatzes ist, dass wir denselben Optimismus schon früher gehört haben. Informationen demokratisieren. Communities verbinden. Geben Sie jedem eine Stimme. Was wir bekamen: Polarisierung, Fehlinformationen in großem Umfang, eine psychische Krise bei Teenagern und die langsame Erosion der gemeinsamen Realität.

Das nehme ich ernst. Aber schauen Sie, wer den Schaden verursacht hat und wer ihn repariert. Facebook führte seinen für das Engagement optimierten Algorithmus im Jahr 2006 ein. Bis 2016 stellten die unternehmenseigenen Forscher fest, dass 64 % der Beitritte zu extremistischen Gruppen über algorithmische Empfehlungen erfolgten. Die Führung nannte die Lösung „Anti-Wachstum“ und legte sie auf Eis. Die erste umfassende Social-Media-Verordnung, [das EU-Gesetz über digitale Dienste](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), kam erst 2022 in Kraft. In den USA gibt es immer noch keine. Das sind 16 Jahre, in denen Zivilgesellschaft, Regulierungsbehörden und Nutzer den Plattformanreizen das Feld überlassen haben.

Als die Korrektur schließlich kam, kam sie von Leuten, die nah genug dran waren, um es zu verstehen. [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) pfeift aus Facebook heraus. Forscher dokumentieren algorithmische Schäden. Die EU schreibt neues Gesetz. Eltern organisieren. Jugendliche verlassen Plattformen, die ihnen nicht dienten. Nichts davon kam von den Leuten, die fernblieben.

Soziale Medien widerlegen die These nicht. Es beweist es. Die Gefahr bestand nicht darin, dass zu viele Leute versuchten, die Technologie zu gestalten. Es waren zu wenige, zu lange. Und das ist die Haltung, die die KI-Skeptiker jetzt wiederholen.