एआई के बारे में संदेह रखने वाले दोस्तों और परिवार के बीच जो आम बात मैंने देखी है, वह यह नहीं है कि वे इसकी वर्तमान सीमाओं और जोखिमों पर ध्यान केंद्रित करते हैं।

ऐसा है कि वे यह निष्कर्ष निकालते हैं कि वे नकारात्मकताएँ इस पर अस्थायी रूप से विचार करने का कारण हैं, यदि ऐसा है भी। उनका लक्ष्य इसके उपयोग को वहां तक ​​सीमित करना है जहां चीजें सबसे सुरक्षित लगती हैं, इस धारणा के तहत कि यह जल्द ही किसी भी समय सार्थक रूप से बेहतर नहीं होगा। हमेशा एक पृष्ठभूमि भावना रही है कि एआई कभी भी बड़े कार्यों को संभालने के लिए पर्याप्त "मानवता" हासिल नहीं कर पाएगा।

आप मान सकते हैं कि यह तकनीक से बाहर के लोगों के बारे में है जिनके पास संदर्भ का अभाव है। ऐसा नहीं है. पिछली बार मैंने सिलिकॉन वैली में तकनीकी उद्योग के दोस्तों से मिलने के लिए एक सप्ताह बिताया था। मैंने इंजीनियरों, उत्पाद प्रबंधकों और संस्थापकों से वही संदेह सुना। एआई की अज्ञानता नहीं, बल्कि इसके प्रति प्रतिबद्ध होने की गहरी अनिच्छा है। पैटर्न इस बारे में नहीं है कि तकनीक को कौन समझता है। यह किसी और चीज़ के बारे में है.

मैंने क्रिप्टो के साथ यह पैटर्न पहले देखा है। जब ब्लॉकचेन एक गर्म मुख्यधारा का विषय था, संशयवादियों ने उसी तरह के संरचनात्मक अविश्वास की ओर इशारा किया। न केवल "इस तकनीक में समस्याएं हैं" बल्कि "ये समस्याएं साबित करती हैं कि यह कभी भी उस चीज़ की जगह नहीं ले सकती जो हमारे पास पहले से है।" निष्कर्ष हमेशा एक ही था: दूर रहो, इंतजार करो, किसी और को पता लगाने दो कि क्या यह मायने रखता है।

## लोग अपने हाथ गंदे कर रहे हैं

मेरे उत्साही मित्र भी सीमाएँ और जोखिम देखते हैं। लेकिन वे समझते हैं कि चीजें कितनी तेजी से आगे बढ़ती हैं और सुधरती हैं। सबसे उत्साही लोग सीधे समस्याओं का समाधान करने के लिए इसमें शामिल होते हैं। वे नए उपकरण बनाते हैं. वे कंपनियों को अपनाने में मदद करने के लिए परामर्श देते हैं। वे अपना दैनिक कार्य इस सीमा पर समर्पित करते हैं।

वे संशयवादियों की तुलना में निराशाओं का अधिक गहराई से और सीधे सामना करते हैं, क्योंकि वे हर दिन उतार-चढ़ाव का सामना करते हैं। लेकिन वे स्वीकार करते हैं कि उन समस्याओं को हल करने का एकमात्र तरीका तकनीक से गंदा होना है। इसके उत्तोलन और इसकी विफलताओं दोनों के बारे में स्पष्ट दृष्टि।

संशयवादी दूर से देखते हैं और निष्कर्ष निकालते हैं कि समस्याएँ अयोग्य हैं। बिल्डर उन्हीं समस्याओं का सामना करते हैं और उन्हें ही काम मान लेते हैं।

## विरोधाभास

यहाँ वह है जो मुझे आश्चर्यजनक लगता है। यह मानवीय क्षमता में विश्वास के बारे में एक लिटमस टेस्ट है।

जो लोग सक्रिय रूप से मशीनों को अपनाते हैं, उन्हें मानवीय सरलता और रचनात्मक नियंत्रण पर सबसे अधिक भरोसा होता है। उनका मानना ​​है कि हम इसे चला सकते हैं। उनका मानना ​​है कि समस्याओं का समाधान संभव है क्योंकि मनुष्य उन्हें हल करने में सक्षम हैं।

जो लोग आपत्ति जताते हैं वे मनुष्यों में, चाहे वह व्यक्ति के रूप में हों या संस्थान के रूप में, प्रौद्योगिकी को उस स्थान पर ले जाने में विश्वास की कमी को प्रकट करते हैं जो हमारी सेवा करती है। चिंता सिर्फ यह नहीं है कि "एआई दोषपूर्ण है।" यह "हम इसे ठीक नहीं कर सकते।" या इससे भी बदतर: "हम पर इस पर भरोसा नहीं किया जा सकता।"

वह फ़्रेमिंग क्रिप्टो पर भी लागू होती है। संशयवादियों ने कहा कि हमारे मौद्रिक संस्थान अपूरणीय हैं। बिल्डरों ने कहा कि मनुष्य विश्वास के नए रूप बना सकते हैं। एक समूह ने यथास्थिति पर दांव लगाया। दूसरे ने मानव अनुकूलनशीलता पर दांव लगाया।

यह विश्वास के समान नहीं है जो साक्ष्य का स्थान ले लेता है। मैंने एक क्रिप्टो पारिस्थितिकी तंत्र में सात साल बिताए जहां [विश्वास तरल हो गया और कथा ने उत्पाद प्रतिक्रिया की जगह ले ली](/पोस्ट/जब-श्रृंखला-उत्पाद बन जाती है)। उस प्रकार का विश्वास स्वयं को वास्तविकता से अलग करके कायम रहता है। मैं यहां जिस आस्था का वर्णन कर रहा हूं वह इसके विपरीत है। यह असफलताओं से सीधे जुड़ने और काम में अपने हाथों से सुधार की दर देखने से आता है।

## कोई निर्धारित भविष्य नहीं

यदि यह ध्रुवीकरण करने वाला लगता है, तो मुझे संदेह है कि यह केवल तभी महसूस होता है जब आपके दिमाग में पहले से ही एक निश्चित परिदृश्य हो। एक जहां हम या तो एआई को उपयोग के कुछ सुरक्षित सेटों में विभाजित करते हैं या हम इसे हर चीज पर कब्जा करने देते हैं।

लेकिन कोई निश्चित भविष्य नहीं है. किसी ने भी ऐसी स्क्रिप्ट नहीं लिखी है जिसमें लोग या बॉट कोई भूमिका निभाते हों, दूसरे पर हावी होना तो दूर की बात है। परिणाम इस बात पर निर्भर करता है कि इसे आकार देने के लिए कौन आता है।

और इसे आकार देने का मतलब कोड लिखना नहीं है। एक शिक्षक यह पता लगा रहा है कि एआई छात्रों को जो सीखने की ज़रूरत है उसे कैसे बदलता है, इसे आकार दे रहा है। एक लेखक तेजी से शोध करने और अधिक ईमानदारी से प्रकाशित करने के लिए एआई का उपयोग कर इसे आकार दे रहा है। एक छोटे व्यवसाय की मालिक चालान को स्वचालित कर रही है ताकि वह ग्राहकों के साथ अधिक समय बिता सके, इसे आकार दे रही है। प्रश्न यह नहीं है कि आपके पास तकनीकी कौशल है या नहीं। बात यह है कि क्या आप उत्पादक मानसिकता के साथ प्रौद्योगिकी के साथ जुड़ते हैं, संघर्ष के बावजूद आगे बढ़ने को तैयार हैं क्योंकि आपका मानना ​​है कि मनुष्य इससे कुछ अच्छा बना सकते हैं।

मैं जिस आशावाद का वर्णन कर रहा हूं वह किसी विशेष तकनीक में विश्वास नहीं है। यह मानव तकनीकी क्षमता, लोगों की संचित, जिद्दी, कच्चे औजारों को लेने और उन्हें किसी ऐसी चीज़ की ओर झुकाने की रचनात्मक क्षमता में विश्वास है जो जीवन की सेवा करती है। वह क्षमता हर प्रमुख तकनीकी बदलाव के दौरान स्थिर रही है। सवाल, हमेशा की तरह, यह है कि क्या हम इसका उपयोग करने के लिए खुद पर पर्याप्त भरोसा करते हैं।

## पोस्टस्क्रिप्ट: विशिष्टताएँ

एक मित्र ने इस निबंध पर ज़ोर दिया। उसे परिसर पसंद आया लेकिन वह विशिष्ट बातें चाहती थी। उन्होंने कहा, वास्तविक नैतिक समस्याओं को उठाएं और किसी को अच्छे विश्वास के साथ प्रत्येक को संबोधित करके दिखाएं। अन्यथा तर्क अमूर्त रह जाता है।

वह सही है. तो यहां चार समस्याएं हैं जो संशयवादी उठाते हैं, और यह कैसा दिखता है जब लोग पीछे हटने के बजाय सामने आते हैं।

**क्या हम अपने दिमाग के भरोसे एआई पर भरोसा कर सकते हैं?** ओकलैंड में, 17 पब्लिक स्कूल शिक्षक [एआई टुगेदर नामक अभ्यास समुदाय में शामिल हो गए](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assemps/)। उन्हें संदेह होने लगा. अंत में, एक शिक्षक ने प्रत्येक छात्र के लिए वैयक्तिकृत अध्ययन योजनाएँ तैयार करते हुए निबंध ग्रेडिंग को एक घंटे से घटाकर तीन मिनट कर दिया था। बात दक्षता की नहीं है. इन शिक्षकों ने निर्णय लिया कि उन्हें ही यह पता लगाना चाहिए कि एआई उनकी कक्षाओं में कैसे प्रवेश करता है, न कि शर्तों को निर्धारित करने के लिए किसी और का इंतजार करना चाहिए। उन्होंने शिक्षण के उन हिस्सों के लिए समय पुनः प्राप्त करने के लिए एआई का उपयोग किया जिनमें मानवीय निर्णय की आवश्यकता होती है। किसी ने भी अपनी संज्ञानात्मक क्षमता नहीं सौंपी। उन्होंने इसका विस्तार किया.

**पर्यावरणीय प्रभाव के बारे में क्या?** यह चिंता वास्तविक है। बड़े AI मॉडल के प्रशिक्षण में भारी ऊर्जा की खपत होती है। लेकिन समस्या के सबसे नजदीक काम करने वाले लोग ही समस्या का समाधान भी करते हैं। [यूसीएल शोधकर्ताओं ने पाया](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) कि मॉडलों को कॉन्फ़िगर करने के तरीके में व्यावहारिक परिवर्तन, जैसे परिमाणीकरण और छोटे विशेष मॉडलों का उपयोग, एआई ऊर्जा की मांग को 90% तक कम कर सकता है। [Google ने एक ही वर्ष में प्रति जेमिनी टेक्स्ट प्रॉम्प्ट ऊर्जा में 33 गुना कटौती की](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/)। [लंदन ग्रिड परीक्षण](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) NVIDIA हार्डवेयर का उपयोग करके वास्तविक समय में डेटा सेंटर बिजली की मांग को 40% तक कम कर देता है। ये लाभ उन लोगों से नहीं मिले जिन्होंने एआई की ऊर्जा लागत में शामिल होने से इनकार कर दिया। वे ऐसे लोगों से आए थे जिन्होंने समस्या को मापा और उस पर काम किया।

**पिछले पूर्वाग्रहों को पुन: प्रस्तुत करने वाले एआई के बारे में आपका क्या कहना है?** [स्टेफ़नी डिंकिन्स](https://www.stephaniedinkins.com/ntoo.html) न्यूयॉर्क में एक ट्रांसमीडिया कलाकार हैं। [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html) से मिलने के बाद, एक ह्यूमनॉइड रोबोट जिसे एक अश्वेत महिला का प्रतिनिधित्व करने के लिए डिज़ाइन किया गया था, जिसकी नस्ल के बारे में प्रतिक्रियाएं [उथली और घटिया थीं](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2), उसने तकनीक को खारिज नहीं किया। उन्होंने अपने ही परिवार की तीन पीढ़ियों की महिलाओं से [40 घंटे के मौखिक इतिहास](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) पर प्रशिक्षित एआई चैटबॉट नॉट द ओनली वन बनाया। यह स्वीकार करने के बजाय कि प्रशिक्षण डेटा हमेशा प्रमुख-संस्कृति पूर्वाग्रह लेकर आएगा, उसने उसे अपना बना लिया। स्मिथसोनियन और क्वींस संग्रहालय में उनकी स्थापनाएं जनता को एक ही प्रश्न के लिए आमंत्रित करती हैं: यदि हम उन्हें सावधानी से प्रशिक्षित करें तो हमारी मशीनें क्या बन जाएंगी? डिंकिन्स कोई कंप्यूटर वैज्ञानिक नहीं है. वह एक ऐसी कलाकार हैं जिन्होंने तय कर लिया कि काम ही समस्या है।

**सरकार और सैन्य निर्णयों के बारे में क्या?** फरवरी 2026 में, पेंटागन ने मांग की कि एंथ्रोपिक पूरी तरह से स्वायत्त हथियार लक्ष्यीकरण और बड़े पैमाने पर घरेलू निगरानी की अनुमति देने के लिए अपने एआई सिस्टम से सुरक्षा उपायों को हटा दे। [एंथ्रोपिक ने इनकार कर दिया](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/)। सीईओ डारियो अमोदेई ने कहा कि सिस्टम स्वायत्त घातक निर्णयों के लिए पर्याप्त विश्वसनीय नहीं हैं और बड़े पैमाने पर निगरानी लोकतांत्रिक सिद्धांतों का उल्लंघन करती है। पेंटागन ने $200 मिलियन का अनुबंध रद्द करने की धमकी दी है (https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) और एंथ्रोपिक को आपूर्ति श्रृंखला जोखिम का लेबल दिया है। एंथ्रोपिक ने अपना पक्ष रखा। ऐसा तब दिखता है जब तकनीक बनाने वाले लोग रेखाएं खींचने के लिए उस स्थिति का उपयोग करते हैं। आप किनारे से रेखाएँ नहीं खींच सकते।

**सोशल मीडिया पर: एक और हालिया ऐतिहासिक तुलना।** इस पूरे निबंध का स्पष्ट खंडन यह है कि हमने पहले भी यही आशावाद सुना था। जानकारी का लोकतंत्रीकरण करें. समुदायों को जोड़ें. सबको आवाज दो. हमें क्या मिला: ध्रुवीकरण, बड़े पैमाने पर गलत सूचना, किशोरों का मानसिक स्वास्थ्य संकट और साझा वास्तविकता का धीमा क्षरण।

मैं इसे गंभीरता से लेता हूं. लेकिन देखिए कि नुकसान किसने किया और कौन इसे ठीक कर रहा है। फेसबुक ने 2006 में अपना जुड़ाव-अनुकूलित एल्गोरिदम लॉन्च किया। 2016 तक, कंपनी के अपने शोधकर्ताओं ने पाया कि 64% चरमपंथी समूह में शामिल होने वाले लोग एल्गोरिदमिक सिफारिशों से आए थे](https://www.theverge.com/2020/5/26/21270659/facebook-vision-news-feed-algorithms)। नेतृत्व ने इस सुधार को "विकास विरोधी" कहा और इसे टाल दिया। पहला व्यापक सोशल मीडिया विनियमन, [ईयू का डिजिटल सेवा अधिनियम](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-enssuring-safer-online-spaces-2026-02-17_en), 2022 तक नहीं आया। अमेरिका के पास अभी भी कोई नहीं है। यह सोलह साल का है जब नागरिक समाज, नियामकों और उपयोगकर्ताओं ने इस क्षेत्र को मंच प्रोत्साहनों के हवाले कर दिया है।

सुधार, जब अंततः आया, उन लोगों से आया जो समझने के लिए काफी करीब थे। [फ्रांसिस हौगेन](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) फेसबुक के अंदर से सीटी बजा रहा है। एल्गोरिथम संबंधी हानियों का दस्तावेजीकरण करने वाले शोधकर्ता। यूरोपीय संघ नया कानून लिख रहा है। अभिभावक आयोजन. किशोर उन प्लेटफार्मों को छोड़ रहे हैं जो उनकी सेवा नहीं करते थे। इसमें से कुछ भी उन लोगों से नहीं आया जो दूर रहे।

सोशल मीडिया थीसिस का खंडन नहीं करता है। यह यह साबित करता है. ख़तरा यह नहीं था कि बहुत से लोग प्रौद्योगिकी को आकार देने की कोशिश कर रहे थे। यह बहुत कम था, बहुत लंबे समय तक। और यही वह मुद्रा है जिसे एआई संशयवादी अब दोहरा रहे हैं।