القاسم المشترك الذي لاحظته بين الأصدقاء والعائلة الذين يشككون في الذكاء الاصطناعي ليس أنهم يركزون على حدوده ومخاطره الحالية.

إنهم يستنتجون أن هذه السلبيات هي سبب للتعامل معها بشكل مبدئي، إذا كان ذلك على الإطلاق. إنهم يهدفون إلى قصر استخدامه على الأماكن الأكثر أمانًا، على افتراض أنه لن يتحسن بشكل ملموس في أي وقت قريب. هناك دائمًا شعور بأن الذكاء الاصطناعي لن يحقق أبدًا ما يكفي من "الإنسانية" للتعامل مع المهام الأكبر.

قد تفترض أن الأمر يتعلق بأشخاص خارج نطاق التكنولوجيا ويفتقرون إلى السياق. إنه ليس كذلك. في الخريف الماضي، أمضيت أسبوعًا في وادي السيليكون للتواصل مع الأصدقاء العاملين في مجال صناعة التكنولوجيا. سمعت نفس الشكوك من المهندسين ومديري المنتجات والمؤسسين. ليس الجهل بالذكاء الاصطناعي، بل التردد العميق في الالتزام به. النمط لا يتعلق بمن يفهم التكنولوجيا. يتعلق الأمر بشيء آخر.

لقد رأيت هذا النمط من قبل مع العملات المشفرة. عندما كانت تقنية blockchain موضوعًا رئيسيًا ساخنًا، أشار المتشككون إلى نفس النوع من عدم الثقة الهيكلية. ليس فقط "هذه التكنولوجيا لديها مشاكل" ولكن "هذه المشاكل تثبت أنها لا يمكن أن تحل محل ما لدينا بالفعل". وكان الاستنتاج دائمًا هو نفسه: ابقَ بعيدًا، وانتظر، ودع شخصًا آخر يعرف ما إذا كان الأمر مهمًا أم لا.

## الناس تتسخ أيديهم

أصدقائي المتحمسين يرون أيضًا القيود والمخاطر. لكنهم يدركون مدى سرعة تحرك الأمور وتحسنها. ينضم الأشخاص الأكثر حماسًا لمعالجة المشكلات بشكل مباشر. يبنون أدوات جديدة. يتشاورون لمساعدة الشركات على تبني. إنهم يلتزمون بعملهم اليومي بهذه الحدود.

إنهم يواجهون الإحباطات بشكل أكثر شمولاً ومباشرة من المتشككين، لأنهم يتنقلون بين الصعود والهبوط كل يوم. لكنهم يقبلون أن الطريقة الوحيدة لحل هذه المشاكل هي استخدام التكنولوجيا. رؤية واضحة بشأن نفوذها وإخفاقاتها.

يراقب المتشككون من مسافة بعيدة ويستنتجون أن المشاكل غير مؤهلة. يواجه البناؤون نفس المشكلات وجهاً لوجه ويعاملونها على أنها العمل نفسه.

## المفارقة

وإليك ما أجده ملفتًا للنظر. إنه اختبار حقيقي للإيمان الذي يضعه المرء في القدرة البشرية.

أولئك الذين يتبنون الآلات بشكل استباقي لديهم إيمان كبير ببراعة الإنسان والتحكم الإبداعي. إنهم يعتقدون أننا قادرون على توجيه هذا. وهم يعتقدون أن المشاكل قابلة للحل لأن البشر قادرون على حلها.

ويكشف أولئك الذين يعترضون على عدم الثقة في البشر، سواء كأفراد أو كمؤسسات، لتوجيه التكنولوجيا إلى مكان يخدمنا. القلق لا يقتصر فقط على "أن الذكاء الاصطناعي معيب". إنه "لا يمكننا إصلاحه". أو ما هو أسوأ من ذلك: "لا يمكن الوثوق بنا في هذا الأمر".

ينطبق هذا الإطار على العملات المشفرة أيضًا. وقال المتشككون إن مؤسساتنا النقدية لا يمكن استبدالها. وقال البناة إن البشر يمكنهم خلق أشكال جديدة من الثقة. مجموعة واحدة تراهن على الوضع الراهن. والرهان الآخر على القدرة البشرية على التكيف.

وهذا ليس مثل الإيمان الذي يحل محل الدليل. لقد أمضيت سبع سنوات في نظام بيئي للعملات المشفرة حيث [أصبح المعتقد سائلاً وحل السرد محل تعليقات المنتج](/posts/when-the-chain-becomes-the-product). ويستمر هذا النوع من الإيمان من خلال عزل نفسه عن الواقع. الإيمان الذي أصفه هنا هو عكس ذلك. إنه يأتي من التعامل مع الإخفاقات بشكل مباشر ومراقبة معدل التحسن بأيديكم في العمل.

## لا يوجد مستقبل محدد

إذا كان هذا يبدو مستقطبًا، أظن أنه يبدو كذلك فقط إذا كان لديك بالفعل سيناريو ثابت في رأسك. واحدة حيث نقوم إما بتقسيم الذكاء الاصطناعي إلى مجموعة آمنة من حالات الاستخدام أو نسمح له بالسيطرة على كل شيء.

لكن ليس هناك مستقبل محدد. لم يكتب أحد السيناريو الذي يلعب فيه الأشخاص أو الروبوتات أي دور معين، ناهيك عن التفوق على الآخر. تعتمد النتيجة على من يظهر ليشكلها.

وتشكيلها لا يعني كتابة التعليمات البرمجية. إن المعلم الذي يكتشف كيف يغير الذكاء الاصطناعي ما يحتاج الطلاب إلى تعلمه هو تشكيله. إن الكاتب الذي يستخدم الذكاء الاصطناعي للبحث بشكل أسرع والنشر بأمانة أكبر هو الذي يشكل ذلك. تعمل صاحبة شركة صغيرة على أتمتة الفواتير حتى تتمكن من قضاء المزيد من الوقت مع العملاء في تشكيلها. السؤال ليس ما إذا كان لديك المهارات التقنية. يتعلق الأمر بما إذا كنت تتعامل مع التكنولوجيا بعقلية منتجة، وعلى استعداد لتجاوز الخلافات لأنك تعتقد أن البشر يمكن أن يصنعوا شيئًا جيدًا منها.

إن التفاؤل الذي أصفه ليس إيمانًا بأي تكنولوجيا معينة. إنه الإيمان بالقدرة التكنولوجية البشرية، والقدرة المتراكمة والعنيدة والإبداعية للناس على استخدام الأدوات الخام وتوجيهها نحو شيء يخدم الحياة. وكانت هذه القدرة هي الثابتة في كل تحول تكنولوجي كبير. والسؤال، كما هو الحال دائمًا، هو ما إذا كنا نثق في أنفسنا بدرجة كافية لاستخدامه.

## التذييل: التفاصيل

تراجع أحد الأصدقاء عن هذا المقال. لقد أحببت الفرضية ولكنها أرادت التفاصيل. قالت: تعامل مع المشكلات الأخلاقية الحقيقية، وأظهر شخصًا يتعامل مع كل واحدة منها بحسن نية. وإلا فإن الحجة تبقى مجردة.

إنها على حق. لذا، إليك أربع مشكلات يثيرها المتشككون، وكيف يبدو الأمر عندما يظهر الناس بدلاً من التراجع.

**هل يمكننا الوثوق في الذكاء الاصطناعي مع ثقتنا في العقول؟** في أوكلاند، انضم 17 معلمًا في مدرسة عامة إلى مجتمع الممارسة المسمى AI Together](https://weleadbylearning.org/2026/01/12/moving-from-hesitance-to-learning-the-power-of-a-community-of-practice-to-challenge-ai-assumptions/). بدأوا متشككين. وبحلول النهاية، قام أحد المعلمين بتقليص مدة تقييم المقالات من أكثر من ساعة إلى ثلاث دقائق أثناء إنشاء خطط دراسية مخصصة لكل طالب. النقطة ليست الكفاءة. قرر هؤلاء المعلمون أنهم هم من يكتشفون كيفية دخول الذكاء الاصطناعي إلى فصولهم الدراسية، وليس انتظار شخص آخر ليضع الشروط. لقد استخدموا الذكاء الاصطناعي لاستعادة الوقت لأجزاء التدريس التي تتطلب الحكم البشري. لم يسلم أحد قدراتهم المعرفية. قاموا بتوسيعها.

**ماذا عن الأثر البيئي؟** هذا القلق حقيقي. يستهلك تدريب نماذج الذكاء الاصطناعي الكبيرة طاقة هائلة. لكن الأشخاص الذين يعملون بالقرب من المشكلة هم أيضًا من يقودون الإصلاح. [وجد باحثون من كلية لندن الجامعية](https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90) أن التغييرات العملية في كيفية تكوين النماذج، مثل القياس الكمي واستخدام نماذج متخصصة أصغر، يمكن أن تقلل الطلب على طاقة الذكاء الاصطناعي بنسبة تصل إلى 90%. [تخفض Google الطاقة لكل رسالة نصية من Gemini بمقدار 33 مرة](https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference/) في عام واحد. [تجربة شبكة لندن](https://electricalreview.co.uk/2026/03/03/uk-first-ai-grid-trial-cuts-london-data-centre-power-demand-by-up-to-40/) باستخدام أجهزة NVIDIA، يتم تقليل الطلب على الطاقة في مركز البيانات بنسبة 40% في الوقت الفعلي. لم تأت هذه المكاسب من الأشخاص الذين رفضوا التعامل مع تكاليف الطاقة الخاصة بالذكاء الاصطناعي. لقد جاءوا من أشخاص قاموا بقياس المشكلة وعملوا على حلها.

**ماذا عن الذكاء الاصطناعي في إعادة إنتاج التحيزات الماضية؟** [ستيفاني دينكينز](https://www.stephaniedinkins.com/ntoo.html) هي فنانة ترانسميديا ​​في نيويورك. بعد مواجهة [Bina48](https://www.stephaniedinkins.com/conversations-with-bina48.html)، وهو روبوت شبيه بالبشر مصمم لتمثيل امرأة سوداء كانت إجاباتها حول العرق [ضحلة واختزالية](https://www.famsf.org/learn-engage/read-watch-listen/stephanie-dinkins-conversations-with-bina48-2)، لم تشطب التكنولوجيا. قامت ببناء Not the Only One، وهو روبوت محادثة يعمل بالذكاء الاصطناعي تم تدريبه على [40 ساعة من التاريخ الشفهي](https://www.scientificamerican.com/article/how-artist-stephanie-dinkins-is-trying-to-fix-ai-bias/) من ثلاثة أجيال من النساء في عائلتها. وبدلاً من قبول حقيقة مفادها أن بيانات التدريب ستحمل دائمًا تحيزًا للثقافة السائدة، فقد صنعت بياناتها الخاصة. وتدعو منشآتها في متحف سميثسونيان وكوينز الجمهور إلى طرح نفس السؤال: كيف ستصبح أجهزتنا إذا قمنا بتدريبها بعناية؟ دينكينز ليس عالم كمبيوتر. إنها فنانة قررت أن المشكلة هي العمل نفسه.

**ماذا عن القرارات الحكومية والعسكرية؟** في فبراير 2026، طالب البنتاغون شركة أنثروبيك بإزالة الضمانات من أنظمة الذكاء الاصطناعي الخاصة بها للسماح باستهداف الأسلحة المستقلة بالكامل والمراقبة المحلية الجماعية. [Anthropic refused](https://www.reuters.com/sustainability/society-equity/anthropic-rejects-pentagons-requests-ai-safeguards-dispute-ceo-says-2026-02-26/). وقال الرئيس التنفيذي داريو أمودي إن الأنظمة ليست موثوقة بدرجة كافية لاتخاذ قرارات مميتة مستقلة وأن المراقبة الجماعية تنتهك المبادئ الديمقراطية. البنتاغون [هدد بإلغاء عقد بقيمة 200 مليون دولار](https://www.theverge.com/news/885773/anthropic-department-of-defense-dod-pentagon-refusal-terms-hegseth-dario-amodei) ووصف Anthropic بأنها مخاطر سلسلة التوريد. حافظت الأنثروبولوجية على مكانتها. هذا هو ما يبدو عليه الأمر عندما يستخدم الأشخاص الذين يبنون التكنولوجيا هذا الوضع لرسم الخطوط. لا يمكنك رسم خطوط من الخطوط الجانبية.

**على وسائل التواصل الاجتماعي: مقارنة تاريخية حديثة أخرى.** والرد الواضح على هذا المقال برمته هو أننا سمعنا نفس التفاؤل من قبل. ديمقراطية المعلومات. ربط المجتمعات. امنح الجميع صوتًا. ما حصلنا عليه: الاستقطاب، والمعلومات المضللة على نطاق واسع، وأزمة الصحة العقلية للمراهقين، والتآكل البطيء للواقع المشترك.

أنا آخذ ذلك على محمل الجد. لكن انظر إلى من تسبب في الضرر ومن يقوم بإصلاحه. أطلق فيسبوك خوارزميته المُحسَّنة للمشاركة في عام 2006. وبحلول عام 2016، وجد باحثو الشركة [أن 64% من الانضمامات إلى الجماعات المتطرفة جاءت من توصيات خوارزمية](https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms). ووصفت القيادة هذا الحل بأنه "مضاد للنمو" ووضعته على الرف. أول تنظيم شامل لوسائل التواصل الاجتماعي، [قانون الخدمات الرقمية للاتحاد الأوروبي](https://commission.europa.eu/news-and-media/news/two-years-digital-services-act-ensuring-safer-online-spaces-2026-02-17_en)، لم يصدر حتى عام 2022. ولا تزال الولايات المتحدة لا تملك أي شيء. وهذا يعني ستة عشر عاماً من تنازل المجتمع المدني، والجهات التنظيمية، والمستخدمين عن هذا المجال لصالح حوافز المنصات.

التصحيح، عندما جاء أخيرًا، جاء من أشخاص اقتربوا بما يكفي لفهمه. [فرانسيس هوجن](https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/) يطلق الصافرة من داخل فيسبوك. الباحثون يوثقون الأضرار الخوارزمية. الاتحاد الأوروبي يكتب قانونًا جديدًا تنظيم الآباء. المراهقون يغادرون المنصات التي لم تخدمهم. ولم يأتِ أي منها من الأشخاص الذين بقوا بعيدًا.

وسائل التواصل الاجتماعي لا تدحض الأطروحة. هذا يثبت ذلك. لم يكن الخطر يكمن في كثرة الأشخاص الذين يحاولون تشكيل التكنولوجيا. لقد كانت قليلة جدًا، لفترة طويلة جدًا. وهذا هو الموقف الذي يكرره المشككون في الذكاء الاصطناعي الآن.