Benang merah yang saya perhatikan di antara teman dan keluarga yang skeptis terhadap AI bukanlah bahwa mereka fokus pada keterbatasan dan risikonya saat ini.

Mereka menyimpulkan bahwa hal-hal negatif tersebut adalah alasan untuk melakukan pendekatan secara tentatif, jika memang ada. Mereka bertujuan untuk membatasi penggunaannya pada tempat yang dirasa paling aman, dengan asumsi bahwa keadaan tidak akan menjadi lebih baik dalam waktu dekat. Selalu ada sentimen yang mendasari bahwa AI tidak akan pernah mencapai tingkat “kemanusiaan” yang cukup untuk menangani tugas-tugas yang lebih besar.

Anda mungkin berasumsi bahwa ini adalah tentang orang-orang di luar bidang teknologi yang tidak memiliki konteks. Tidak. Musim gugur yang lalu saya menghabiskan seminggu di Silicon Valley untuk bertemu dengan teman-teman dari industri teknologi. Saya mendengar skeptisisme yang sama dari para insinyur, manajer produk, dan pendiri. Bukan ketidaktahuan akan AI, namun keengganan mendalam untuk berkomitmen terhadapnya. Polanya bukan tentang siapa yang memahami teknologinya. Ini tentang hal lain.

Saya pernah melihat pola ini sebelumnya dengan crypto. Ketika blockchain menjadi topik arus utama yang hangat, para skeptis menunjuk pada ketidakpercayaan struktural yang sama. Bukan hanya "teknologi ini mempunyai masalah" tetapi "masalah ini membuktikan bahwa teknologi ini tidak akan pernah bisa menggantikan apa yang sudah kita miliki." Kesimpulannya selalu sama: menjauhlah, tunggu, biarkan orang lain mengetahui apakah hal itu penting.

## Orang-orang mengotori tangannya

Teman-teman saya yang antusias juga melihat keterbatasan dan risikonya. Namun mereka memahami betapa cepatnya segala sesuatunya bergerak dan berkembang. Yang paling antusias ikut serta mengatasi permasalahan secara langsung. Mereka membangun alat-alat baru. Mereka berkonsultasi untuk membantu perusahaan mengadopsi. Mereka menyerahkan pekerjaan sehari-hari mereka ke perbatasan ini.

Mereka menghadapi rasa frustrasi secara lebih menyeluruh dan langsung dibandingkan orang yang skeptis, karena mereka menghadapi pasang surut setiap hari. Namun mereka menerima bahwa satu-satunya cara untuk menyelesaikan masalah tersebut adalah dengan menggunakan teknologi. Jelas mengenai leverage dan kegagalannya.

Mereka yang skeptis mengamati dari kejauhan dan menyimpulkan bahwa masalah tersebut mendiskualifikasi. Para pembangun langsung menghadapi masalah yang sama dan memperlakukannya seperti pekerjaan itu sendiri.

## Paradoks

Inilah yang menurut saya mengejutkan. Ini adalah ujian lakmus tentang keyakinan seseorang terhadap kemampuan manusia.

Mereka yang secara proaktif menggunakan mesin sangat percaya pada kecerdikan manusia dan kendali kreatif. Mereka yakin kita bisa mengarahkan hal ini. Mereka percaya bahwa permasalahan dapat dipecahkan karena manusia mampu menyelesaikannya.

Mereka yang menolak menunjukkan kurangnya kepercayaan pada manusia, baik sebagai individu atau institusi, untuk mengarahkan teknologi ke tempat yang lebih bermanfaat bagi kita. Kekhawatirannya bukan hanya pada "AI yang cacat". Itu adalah "kita tidak bisa memperbaikinya." Atau lebih buruk lagi: "kami tidak dapat dipercaya dalam hal ini."

Pembingkaian itu juga berlaku untuk kripto. Mereka yang skeptis mengatakan bahwa lembaga moneter kita tidak dapat digantikan. Para pembangun mengatakan manusia dapat menciptakan bentuk kepercayaan baru. Satu kelompok bertaruh pada status quo. Yang lainnya bertaruh pada kemampuan beradaptasi manusia.

Ini tidak sama dengan iman yang menggantikan bukti. Saya menghabiskan tujuh tahun di ekosistem kripto di mana [kepercayaan menjadi cair dan narasi menggantikan masukan produk](/posts/saat-rantai-menjadi-produk). Keyakinan seperti itu bertahan dengan mengisolasi dirinya dari kenyataan. Iman yang saya jelaskan di sini adalah kebalikannya. Itu datang dari keterlibatan langsung dengan kegagalan dan menyaksikan sendiri tingkat perbaikan dalam pekerjaan.

## Tidak ada masa depan yang ditentukan

Jika ini terdengar polarisasi, saya kira ini hanya terasa seperti itu jika Anda sudah memiliki skenario tetap di kepala Anda. Saat kita mengelompokkan AI ke dalam beberapa kasus penggunaan yang aman atau kita membiarkannya mengambil alih segalanya.

Namun tidak ada masa depan yang pasti. Belum ada seorang pun yang menulis naskah di mana orang atau bot memainkan peran tertentu, apalagi mengalahkan yang lain. Hasilnya tergantung pada siapa yang muncul untuk membentuknya.

Dan membentuknya tidak berarti menulis kode. Seorang guru yang mencari tahu bagaimana AI mengubah apa yang perlu dipelajari siswa sedang membentuknya. Seorang penulis yang menggunakan AI untuk meneliti lebih cepat dan mempublikasikan dengan lebih jujur ​​sedang membentuknya. Seorang pemilik usaha kecil yang mengotomatiskan faktur sehingga dia dapat menghabiskan lebih banyak waktu dengan pelanggan sedang membentuknya. Pertanyaannya bukanlah apakah Anda memiliki keterampilan teknis. Masalahnya adalah apakah Anda berinteraksi dengan teknologi dengan pola pikir yang produktif, bersedia mengatasi hambatan karena Anda yakin manusia dapat menghasilkan sesuatu yang baik dari teknologi tersebut.

Optimisme yang saya gambarkan bukanlah keyakinan pada teknologi tertentu. Ini adalah keyakinan pada kapasitas teknologi manusia, kemampuan orang-orang yang terakumulasi, keras kepala, dan kreatif untuk menggunakan alat-alat kasar dan membengkokkannya ke arah sesuatu yang bermanfaat bagi kehidupan. Kapasitas tersebut selalu konstan di setiap perubahan teknologi besar. Pertanyaannya, seperti biasa, adalah apakah kita cukup percaya diri untuk menggunakannya.

## Catatan tambahan: spesifiknya

Seorang teman menolak esai ini. Dia menyukai premisnya tetapi menginginkan yang spesifik. Atasi masalah etika yang sebenarnya, katanya, dan tunjukkan seseorang menangani masalah tersebut dengan itikad baik. Kalau tidak, argumennya akan tetap abstrak.

Dia benar. Jadi, inilah empat masalah yang diajukan oleh orang-orang yang skeptis, dan apa yang tampak ketika orang-orang muncul dan bukannya mundur.

**Dapatkah kita mempercayai AI dengan kepercayaan otak kita?** Di Oakland, 17 guru sekolah negeri [bergabung dengan komunitas praktik yang disebut AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). Mereka mulai skeptis. Pada akhirnya, seorang guru telah memotong penilaian esai dari satu jam menjadi tiga menit sambil membuat rencana belajar yang dipersonalisasi untuk setiap siswa. Intinya bukanlah efisiensi. Para guru ini memutuskan bahwa merekalah yang seharusnya mengetahui bagaimana AI memasuki ruang kelas mereka, bukan menunggu orang lain yang menentukan persyaratannya. Mereka menggunakan AI untuk mendapatkan kembali waktu pada bagian pengajaran yang memerlukan penilaian manusia. Tidak ada yang menyerahkan kapasitas kognitifnya. Mereka memperluasnya.

**Bagaimana dengan dampak lingkungan?** Kekhawatiran ini nyata. Melatih model AI berukuran besar menghabiskan energi yang sangat besar. Namun orang-orang yang bekerja paling dekat dengan masalah juga merupakan pihak yang mendorong perbaikan. [Peneliti UCL menemukan](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) bahwa perubahan praktis pada cara model dikonfigurasikan, seperti kuantisasi dan penggunaan model khusus yang lebih kecil, dapat mengurangi permintaan energi AI hingga 90%. [Google memangkas energi per permintaan teks Gemini sebesar 33x](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) dalam satu tahun. [Uji coba jaringan listrik di London](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-trial-cuts-london-data-centre-power-demand-by-up-to-40/) menggunakan perangkat keras NVIDIA mengurangi permintaan daya pusat data sebesar 40% secara real-time. Keuntungan ini tidak datang dari orang-orang yang menolak untuk terlibat dalam biaya energi yang ditimbulkan oleh AI. Mereka datang dari orang-orang yang mengukur masalahnya dan mulai mengatasinya.

**Bagaimana dengan AI yang mereproduksi bias masa lalu?** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) adalah artis transmedia di New York. Setelah bertemu dengan [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html), sebuah robot humanoid yang dirancang untuk mewakili seorang wanita kulit hitam yang tanggapannya terhadap ras [dangkal dan reduktif](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), dia tidak menghapus teknologi tersebut. Dia membuat Not the Only One, sebuah chatbot AI yang dilatih tentang [40 jam sejarah lisan](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) dari tiga generasi wanita di keluarganya sendiri. Alih-alih menerima bahwa data pelatihan akan selalu membawa bias budaya dominan, dia malah membuat biasnya sendiri. Instalasinya di Museum Smithsonian dan Queens mengundang publik ke dalam pertanyaan yang sama: akan jadi apa mesin kita jika kita melatihnya dengan hati-hati? Dinkins bukanlah seorang ilmuwan komputer. Dia seorang seniman yang memutuskan bahwa masalahnya adalah karyanya sendiri.

**Bagaimana dengan keputusan pemerintah dan militer?** Pada bulan Februari 2026, Pentagon menuntut Anthropic menghapus perlindungan dari sistem AI-nya agar memungkinkan penargetan senjata yang sepenuhnya otonom dan pengawasan domestik massal. [Anthropic menolak](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). CEO Dario Amodei mengatakan sistem tersebut tidak cukup dapat diandalkan untuk mengambil keputusan mematikan secara otonom dan pengawasan massal melanggar prinsip-prinsip demokrasi. Pentagon [mengancam akan membatalkan kontrak senilai $200 juta](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) dan menyebut Anthropic sebagai risiko rantai pasokan. Antropis bertahan. Inilah yang terlihat ketika orang-orang yang membangun teknologi menggunakan posisi tersebut untuk menarik garis. Anda tidak dapat menarik garis dari pinggir lapangan.

**Di media sosial: perbandingan sejarah terbaru lainnya.** Sanggahan yang jelas terhadap keseluruhan esai ini adalah bahwa kita pernah mendengar optimisme yang sama sebelumnya. Demokratisasikan informasi. Hubungkan komunitas. Berikan suara kepada semua orang. Apa yang kita dapatkan: polarisasi, misinformasi dalam skala besar, krisis kesehatan mental remaja, dan perlahan-lahan terkikisnya realitas bersama.

Saya menganggapnya serius. Tapi lihatlah siapa yang menyebabkan kerusakan dan siapa yang memperbaikinya. Facebook meluncurkan algoritme yang mengoptimalkan interaksi pada tahun 2006. Pada tahun 2016, para peneliti perusahaan tersebut [menemukan bahwa 64% anggota kelompok ekstremis berasal dari rekomendasi algoritme](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms). Para pemimpin menyebut perbaikan ini sebagai “antipertumbuhan” dan mengesampingkannya. Peraturan media sosial komprehensif pertama, [Undang-undang Layanan Digital UE](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en), baru disahkan pada tahun 2022. AS masih belum memiliki peraturan tersebut. Itu berarti enam belas tahun masyarakat sipil, regulator, dan pengguna menyerahkan diri pada insentif platform.

Koreksinya, ketika akhirnya datang, datang dari orang-orang yang cukup dekat untuk memahaminya. [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) membocorkan rahasia dari dalam Facebook. Peneliti mendokumentasikan kerusakan algoritmik. UE menulis undang-undang baru. Pengorganisasian orang tua. Remaja meninggalkan platform yang tidak melayani mereka. Tidak ada satupun yang datang dari orang-orang yang menjauh.

Media sosial tidak menyangkal tesis tersebut. Itu membuktikannya. Bahayanya adalah tidak terlalu banyak orang yang mencoba membentuk teknologi tersebut. Jumlahnya terlalu sedikit, terlalu lama. Dan itulah sikap yang sekarang diulangi oleh para skeptis AI.