AI کے بارے میں شکوک و شبہات رکھنے والے دوستوں اور کنبہ کے درمیان میں نے جو مشترکہ دھاگہ دیکھا ہے وہ یہ نہیں ہے کہ وہ اس کی موجودہ حدود اور خطرات پر توجہ مرکوز کرتے ہیں۔

یہ ہے کہ وہ یہ نتیجہ اخذ کرتے ہیں کہ وہ منفیات اس سے عارضی طور پر رجوع کرنے کی وجہ ہیں، اگر بالکل بھی نہیں۔ ان کا مقصد اس کے استعمال کو محدود کرنا ہے جہاں چیزیں سب سے زیادہ محفوظ محسوس ہوتی ہیں، اس مفروضے کے تحت کہ یہ جلد ہی کسی بھی وقت معنی خیز طور پر بہتر نہیں ہوگا۔ ہمیشہ ایک پس منظر کا جذبہ ہوتا ہے کہ AI کبھی بھی بڑے کاموں کو سنبھالنے کے لیے کافی "انسانیت" حاصل نہیں کرے گا۔

آپ فرض کر سکتے ہیں کہ یہ ٹیک سے باہر کے لوگوں کے بارے میں ہے جن کے پاس سیاق و سباق کی کمی ہے۔ یہ نہیں ہے۔ پچھلے موسم خزاں میں میں نے ایک ہفتہ سلیکن ویلی میں ٹیک انڈسٹری کے دوستوں سے ملنے میں گزارا۔ میں نے انجینئرز، پروڈکٹ مینیجرز، اور بانیوں سے اسی شکوک و شبہات کو سنا ہے۔ اے آئی سے لاعلمی نہیں، بلکہ اس سے عہد کرنے میں گہری ہچکچاہٹ ہے۔ پیٹرن اس بارے میں نہیں ہے کہ کون ٹیکنالوجی کو سمجھتا ہے۔ یہ کسی اور چیز کے بارے میں ہے۔

میں نے یہ نمونہ پہلے کرپٹو کے ساتھ دیکھا ہے۔ جب بلاکچین مرکزی دھارے کا ایک گرما گرم موضوع تھا، تو شک کرنے والوں نے اسی قسم کے ساختی عدم اعتماد کی طرف اشارہ کیا۔ نہ صرف "اس ٹیک میں مسائل ہیں" بلکہ "یہ مسائل ثابت کرتے ہیں کہ یہ ہمارے پاس پہلے سے موجود چیزوں کو کبھی نہیں بدل سکتی۔" نتیجہ ہمیشہ ایک ہی تھا: دور رہیں، انتظار کریں، کسی اور کو یہ معلوم کرنے دیں کہ آیا اس سے فرق پڑتا ہے۔

## لوگ اپنے ہاتھ گندے کر رہے ہیں۔

میرے پرجوش دوست بھی حدود اور خطرات کو دیکھتے ہیں۔ لیکن وہ سمجھتے ہیں کہ چیزیں کتنی تیزی سے آگے بڑھتی ہیں اور بہتر ہوتی ہیں۔ سب سے زیادہ پرجوش لوگ براہ راست مسائل کو حل کرنے میں شامل ہوتے ہیں۔ وہ نئے اوزار بناتے ہیں۔ وہ کمپنیوں کو اپنانے میں مدد کرنے کے لیے مشورہ کرتے ہیں۔ وہ اپنے روزمرہ کا کام اس سرحد پر کرتے ہیں۔

وہ شکوک و شبہات کے مقابلے میں زیادہ اچھی طرح اور براہ راست مایوسیوں کا سامنا کرتے ہیں، کیونکہ وہ ہر روز اتار چڑھاو کو نیویگیٹ کرتے ہیں۔ لیکن وہ قبول کرتے ہیں کہ ان مسائل کو حل کرنے کا واحد طریقہ ٹیک کے ساتھ گندا ہونا ہے۔ اس کے فائدہ اٹھانے اور اس کی ناکامیوں دونوں کے بارے میں صاف نظر۔

شک کرنے والے دور سے مشاہدہ کرتے ہیں اور یہ نتیجہ اخذ کرتے ہیں کہ مسائل نااہل ہیں۔ بلڈرز انہی مسائل کا سامنا کرتے ہیں اور انہیں کام ہی سمجھتے ہیں۔

## تضاد

یہ ہے جو مجھے حیرت انگیز لگتا ہے۔ یہ ایمان کے بارے میں ایک لٹمس ٹیسٹ ہے جو انسانی صلاحیت میں ایک جگہ ہے۔

جو لوگ فعال طور پر مشینوں کو گلے لگاتے ہیں وہ انسانی آسانی اور تخلیقی کنٹرول میں سب سے زیادہ اعتماد رکھتے ہیں۔ وہ یقین رکھتے ہیں کہ ہم اس پر قابو پا سکتے ہیں۔ ان کا خیال ہے کہ مسائل قابل حل ہیں کیونکہ انسان ان کو حل کرنے کی صلاحیت رکھتے ہیں۔

جو لوگ ہچکچاتے ہیں وہ انسانوں میں اعتماد کی کمی کو ظاہر کرتے ہیں، چاہے وہ انفرادی طور پر ہو یا اداروں کے طور پر، ٹیکنالوجی کو اس جگہ تک لے جانے کے لیے جو ہماری خدمت کرتی ہے۔ پریشانی صرف یہ نہیں ہے کہ "AI ناقص ہے۔" یہ ہے "ہم اسے ٹھیک نہیں کر سکتے۔" یا بدتر: "ہم پر اس پر بھروسہ نہیں کیا جا سکتا۔"

یہ فریمنگ کرپٹو پر بھی لاگو ہوتی ہے۔ شک کرنے والوں نے کہا کہ ہمارے مالیاتی ادارے ناقابل تلافی ہیں۔ معماروں نے کہا کہ انسان اعتماد کی نئی شکلیں بنا سکتے ہیں۔ ایک گروپ جمود پر شرط لگاتا ہے۔ دوسری شرط انسانی موافقت پر ہے۔

یہ ایمان جیسا نہیں ہے جو ثبوت کی جگہ لے لے۔ میں نے سات سال ایک کرپٹو ایکو سسٹم میں گزارے جہاں [عقیدہ مائع بن گیا اور بیانیہ نے پروڈکٹ فیڈ بیک کی جگہ لے لی](/posts/when-the-chain-becomes-the-product)۔ اس قسم کا ایمان خود کو حقیقت سے الگ کر کے قائم رہتا ہے۔ میں یہاں جو عقیدہ بیان کر رہا ہوں وہ اس کے برعکس ہے۔ یہ ناکامیوں کے ساتھ براہ راست مشغول ہونے اور کام میں اپنے ہاتھوں سے بہتری کی شرح کو دیکھنے سے آتا ہے۔

## کوئی طے شدہ مستقبل نہیں۔

اگر یہ پولرائزنگ لگتا ہے، مجھے شبہ ہے کہ یہ صرف اس طرح محسوس ہوتا ہے اگر آپ کے سر میں پہلے سے ہی ایک طے شدہ منظر نامہ موجود ہے۔ ایک جہاں ہم یا تو AI کو استعمال کے کچھ محفوظ سیٹوں میں تقسیم کرتے ہیں یا ہم اسے ہر چیز پر قبضہ کرنے دیتے ہیں۔

لیکن کوئی طے شدہ مستقبل نہیں ہے۔ کسی نے بھی اسکرپٹ نہیں لکھا ہے جس میں لوگ یا بوٹس کوئی بھی کردار ادا کرتے ہیں، دوسرے پر غالب آنے دیں۔ نتیجہ اس بات پر منحصر ہے کہ اس کی شکل کون دکھاتا ہے۔

اور اسے تشکیل دینے کا مطلب کوڈ لکھنا نہیں ہے۔ ایک استاد یہ سمجھ رہا ہے کہ AI کس طرح بدلتا ہے جو طالب علموں کو سیکھنے کی ضرورت ہے اسے تشکیل دے رہا ہے۔ تیزی سے تحقیق کرنے اور زیادہ ایمانداری سے شائع کرنے کے لیے AI کا استعمال کرنے والا مصنف اسے تشکیل دے رہا ہے۔ ایک چھوٹے کاروبار کی مالک انوائس کو خودکار کرتی ہے تاکہ وہ گاہکوں کے ساتھ زیادہ وقت گزار سکے اسے تشکیل دے رہی ہے۔ سوال یہ نہیں ہے کہ آپ کے پاس تکنیکی مہارت ہے یا نہیں۔ یہ ہے کہ آیا آپ پیداواری ذہنیت کے ساتھ ٹیکنالوجی کے ساتھ مشغول ہیں، رگڑ کو آگے بڑھانے کے لیے تیار ہیں کیونکہ آپ کو یقین ہے کہ انسان اس سے کچھ اچھا بنا سکتے ہیں۔

میں جس امید کو بیان کر رہا ہوں وہ کسی خاص ٹیکنالوجی میں یقین نہیں ہے۔ یہ انسانی تکنیکی صلاحیت پر یقین ہے، لوگوں کی جمع شدہ، ضدی، تخلیقی قابلیت کسی نہ کسی طرح کے اوزار لینے اور انہیں زندگی کی خدمت کرنے والی چیز کی طرف موڑنا ہے۔ یہ صلاحیت ہر بڑی تکنیکی تبدیلی میں مستقل رہی ہے۔ سوال، ہمیشہ کی طرح، یہ ہے کہ کیا ہم اسے استعمال کرنے کے لیے خود پر کافی بھروسہ رکھتے ہیں۔

## پوسٹ اسکرپٹ: تفصیلات

ایک دوست نے اس مضمون کو پیچھے دھکیل دیا۔ وہ بنیاد کو پسند کرتی تھی لیکن تفصیلات چاہتی تھی۔ اس نے کہا، حقیقی اخلاقی مسائل کو اٹھائیں، اور کسی کو دکھائیں جو ہر ایک کو نیک نیتی کے ساتھ مخاطب کرتا ہے۔ ورنہ دلیل تجریدی ہی رہتی ہے۔

وہ ٹھیک کہہ رہی ہے۔ تو یہاں چار مسائل ہیں جو شکوک پیدا کرتے ہیں، اور یہ کیسا لگتا ہے جب لوگ پیچھے ہٹنے کے بجائے ظاہر ہوتے ہیں۔

**کیا ہم اپنے دماغی بھروسے کے ساتھ AI پر بھروسہ کر سکتے ہیں؟** اوکلینڈ میں، 17 سرکاری اسکولوں کے اساتذہ [AI Together نامی پریکٹس کی کمیونٹی میں شامل ہوئے](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-achallenge-of-practice) وہ شکوہ کرنے لگے۔ آخر تک، ایک استاد نے ہر طالب علم کے لیے ذاتی نوعیت کے مطالعہ کے منصوبے تیار کرتے ہوئے مضمون کی درجہ بندی کو ایک گھنٹے سے تین منٹ تک کم کر دیا تھا۔ نقطہ کارکردگی نہیں ہے۔ ان اساتذہ نے فیصلہ کیا کہ انہیں یہ معلوم کرنا چاہیے کہ AI ان کے کلاس رومز میں کیسے داخل ہوتا ہے، کسی اور کے شرائط طے کرنے کا انتظار نہیں کرنا چاہیے۔ انہوں نے تعلیم کے ان حصوں کے لیے وقت کا دعویٰ کرنے کے لیے AI کا استعمال کیا جن کے لیے انسانی فیصلے کی ضرورت ہوتی ہے۔ کسی نے ان کی علمی صلاحیت کے حوالے نہیں کیا۔ انہوں نے اسے وسعت دی۔

**ماحولیاتی اثرات کے بارے میں کیا خیال ہے؟** یہ تشویش حقیقی ہے۔ بڑے AI ماڈلز کی تربیت میں بہت زیادہ توانائی خرچ ہوتی ہے۔ لیکن مسئلے کے قریب ترین کام کرنے والے لوگ بھی اس مسئلے کو حل کرنے والے ہیں۔ [UCL محققین نے پایا](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) کہ ماڈلز کو ترتیب دینے کے طریقے میں عملی تبدیلیاں، جیسے کوانٹائزیشن اور چھوٹے خصوصی ماڈلز کا استعمال، AI توانائی کی طلب کو %9 تک کم کر سکتا ہے۔ [Google نے فی جیمنی ٹیکسٹ پرامپٹ پر توانائی کو 33x تک کم کیا](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) ایک ہی سال میں۔ [لندن کا ایک گرڈ ٹرائل](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) NVIDIA ہارڈ ویئر کا استعمال کرتے ہوئے ڈیٹا سینٹر کی پاور ڈیمانڈ کو حقیقی وقت میں 40% کم کرتا ہے۔ یہ فوائد ان لوگوں سے نہیں ملے جنہوں نے AI کی توانائی کے اخراجات میں مشغول ہونے سے انکار کیا۔ وہ ان لوگوں سے آئے جنہوں نے مسئلہ کی پیمائش کی اور اس پر کام کیا۔

**ماضی کے تعصبات کو دوبارہ پیش کرنے والے AI کے بارے میں کیا خیال ہے؟** [Stephanie Dinkins](https://www.stephaniedinkins.com/ntoo.html) نیویارک میں ایک ٹرانسمیڈیا آرٹسٹ ہے۔ [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html) کا سامنا کرنے کے بعد، ایک ہیومنائیڈ روبوٹ جو ایک سیاہ فام عورت کی نمائندگی کے لیے ڈیزائن کیا گیا ہے جس کے نسل کے بارے میں ردعمل [اتھلے اور کم کرنے والے تھے] ٹیکنالوجی کو ختم نہیں کیا. اس نے صرف ایک ہی نہیں، ایک AI چیٹ بوٹ بنایا جسے [40 گھنٹے کی زبانی تاریخوں](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) پر تربیت دی گئی اپنے ہی خاندان کی خواتین کی تین نسلوں سے۔ اس بات کو قبول کرنے کے بجائے کہ تربیتی اعداد و شمار ہمیشہ غالب ثقافتی تعصب رکھتے ہیں، اس نے اپنا بنا لیا۔ سمتھسونین اور کوئنز میوزیم میں اس کی تنصیبات عوام کو ایک ہی سوال میں مدعو کرتی ہیں: اگر ہم ان کو احتیاط سے تربیت دیں تو ہماری مشینیں کیا بنیں گی؟ ڈنکنز کمپیوٹر سائنسدان نہیں ہیں۔ وہ ایک فنکار ہے جس نے فیصلہ کیا کہ مسئلہ خود کام تھا۔

**حکومتی اور فوجی فیصلوں کے بارے میں کیا خیال ہے؟** فروری 2026 میں، پینٹاگون نے مطالبہ کیا کہ اینتھروپک اپنے AI سسٹمز سے حفاظتی اقدامات ہٹائے تاکہ مکمل طور پر خود مختار ہتھیاروں کو نشانہ بنانے اور بڑے پیمانے پر گھریلو نگرانی کی اجازت دی جا سکے۔ [انسانیت نے انکار کر دیا](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/)۔ CEO Dario Amodei نے کہا کہ نظام خود مختار مہلک فیصلوں کے لیے کافی قابل اعتماد نہیں ہیں اور یہ کہ بڑے پیمانے پر نگرانی جمہوری اصولوں کی خلاف ورزی کرتی ہے۔ پینٹاگون نے [$200 ملین کا معاہدہ منسوخ کرنے کی دھمکی دی](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) اور انتھروپک کو سپلائی چین کے خطرے کا لیبل لگا۔ انتھروپک نے اپنی زمین کو تھام لیا۔ ایسا لگتا ہے جب ٹیکنالوجی بنانے والے لوگ اس پوزیشن کو لکیریں کھینچنے کے لیے استعمال کرتے ہیں۔ آپ کنارے سے لکیریں نہیں کھینچ سکتے۔

**سوشل میڈیا پر: ایک اور حالیہ تاریخی موازنہ۔** اس پورے مضمون کی واضح تردید یہ ہے کہ ہم نے پہلے بھی یہی امید سنی تھی۔ معلومات کو جمہوری بنائیں۔ کمیونٹیز کو جوڑیں۔ سب کو آواز دیں۔ ہمیں کیا ملا: پولرائزیشن، پیمانے پر غلط معلومات، نوعمر ذہنی صحت کا بحران، اور مشترکہ حقیقت کا سست کٹاؤ۔

میں اسے سنجیدگی سے لیتا ہوں۔ لیکن دیکھیں نقصان کس نے کیا اور کون ٹھیک کر رہا ہے۔ فیس بک نے 2006 میں اپنی مصروفیت کے لیے موزوں الگورتھم کا آغاز کیا۔ 2016 تک، کمپنی کے اپنے محققین نے [پتا چلا کہ 64% انتہا پسند گروپ میں شمولیت الگورتھم کی سفارشات سے ہوئی ہے] قیادت نے اس فکس کو "اینٹی گروتھ" کہا اور اسے ختم کردیا۔ پہلا جامع سوشل میڈیا ریگولیشن، [EU's Digital Services Act](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en)، اس وقت تک نہیں آیا جب تک کہ US ابھی تک کوئی نہیں ہے۔ یہ سول سوسائٹی، ریگولیٹرز، اور صارفین کے پلیٹ فارم مراعات کے لیے میدان کو سونپنے کے سولہ سال ہیں۔

تصحیح، جب آخرکار آئی، ان لوگوں کی طرف سے آئی جو سمجھنے کے لیے کافی قریب ہو گئے۔ [Frances Haugen](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) Facebook کے اندر سے سیٹی بجا رہا ہے۔ الگورتھمک نقصانات کی دستاویز کرنے والے محققین۔ EU نیا قانون لکھ رہا ہے۔ والدین کا اہتمام۔ نوجوان ایسے پلیٹ فارم چھوڑ رہے ہیں جو ان کی خدمت نہیں کرتے تھے۔ اس میں سے کوئی بھی ان لوگوں کی طرف سے نہیں آیا جو دور رہے۔

سوشل میڈیا تھیسس کو غلط ثابت نہیں کرتا۔ یہ ثابت کرتا ہے۔ خطرہ یہ نہیں تھا کہ بہت سے لوگ ٹیکنالوجی کو شکل دینے کی کوشش کر رہے تھے۔ یہ بہت کم تھا، بہت لمبے عرصے تک۔ اور یہی وہ کرنسی ہے جسے اے آئی کے شکوک اب دہرا رہے ہیں۔