top of page
  • Writer's pictureFarah Ghazal

جهاد "ديون" البتلري: هل هناك مفر من الحرب ضد الذكاء الاصطناعي؟

Updated: May 30, 2022

إذا كنتم ممن يستمتعون بالخيال العلمي أو المناظر الطبيعية الصحراوية أو توتو أو تيموثي شالاميت، فلا بد أنكم سمعتم عن فيلم "ديون" (2021).




اُخِذَ هذا الفيلم، الذي طال ترقبه، عن سلسلة تحمل الاسم نفسه كتبها الصحفي وعالم البيئة فرانك هربرت في عام 1965. أسهم الكم الهائل من الموضوعات الموجودة في الكتب، مثل القلق البيئي والتكالب على الموارد الطبيعية والتلاعب السياسي والديني على مستوى الكواكب، في صنع عملًا كلاسيكيًا ترفيهيًا وباعثًا على التفكير. إذ تُعتبر تلك السلسلة من أفضل ما كُتِب في باب الخيال العلمي (إن لم تكن الأفضل).

تتناول هذه المقالة موضوعًا مناسبًا لكل الأزمنة، ولا سيما زمننا الحالي تحديدًا. فهو موضوع يسبق جميع أحداث ديون: "الجهاد البتلري"[1](Dune's Butlerian Jihad)، أي الصراع الطاحن بين البشر والآلات قبل آلاف السنين من ظهور "ديون".

لم تشر الكتب إلى الجهاد إلا في مواضع نادرة، وهو ما يجعل معرفتنا بالتفاصيل ضبابية. فكل ما نعرفه أن هذا الجهاد كان حدثًا مدمرًا، بدأ كثورة جماعية ضد "الآلة القادرة على التفكير" وانتهى بتدمير جميع أشكالها. ونظرًا لعدم وجود معلومات كافية عن المقصود بالجهاد، فإن فهمنا لما حدث سيعتمد بطبيعة الحال على تفسير الاقتباسات المماثلة في السلسلة.


"إياك أن تصنع آلة تشبه العقل البشري" هكذا كانت إحدى الوصايا المحورية في الكتاب المقدس الكاثوليكي البرتقالي، وهو النص الديني الذي ظهر بعد الصراع. لاحظ هذه الوصية أيضًا: "بمجرد أن نقل الرجال إلى الآلات طريقة التفكير البشرية على أمل أن يحررهم هذا ... نتج عن ذلك أن استُعبد هؤلاء الرجال بواسطة رجال آخرين لديهم آلات". ونستشف من ذلك أن هذا الجهاد لم يكن موجهًا ضد الآلات التي قلبت الطاولة وسيطرت على البشر. إذ أن هناك شواهد تدل على أن الحرب لم تستهدف الآلات فحسب، بل و"الرجال الذين لديهم آلات" أيضًا.


كثيرًا ما نرى في العناوين الرئيسية بالقنوات والمنصات الإخبارية قصصًا تحذيرية متعلقة بالذكاء الاصطناعي، تتورط فيها فيها شركات أو مشاريع استعمارية حديثة. لذا، فربما من المنطقي أن نصدق أننا اليوم بتنا أقرب ما يكون إلى العالم الذي ألمح إليه هربرت - عالم يتحكم فيه الرجال الذين لديهم الآلات بالرجال الآخرين.

هل اقتربنا من الواقع المرير القائم على الذكاء الاصطناعي الذي أعقب "ديون"؟


في الواقع، ربما أننا نعيش بالفعل في هذا الواقع المرير، فنحن نعيش فيما يطلق عليه باحث الذكاء الاصطناعي جون داناهير "خوارقراطية"('Algocracy')، أو نظام يقوم على "استخدام الخوارزميات لجمع وترتيب وتنظيم البيانات التي يُتخذ القرارات بناءً عليها" (Danaher, 2016). وبالتالي تتحكم الخوارزميات أيضًا في الطرق التي يتصرف بها البشر داخل تلك الأنظمة (من خلال هيكلة تلك التصرفات وتقييدها). والأمر المهم الذي حرص داناهير على تسليط الضوء عليه هو المبالغة العامة في تقدير قدرة المستخدمين على "الانسحاب" من هذا النظام. وكمثال على ذلك يشير داناهير إلى حالة جانيت فيرتسي التي حاولت في عام 2014 إخفاء حملها عن "الإنترنت وشركات البيانات الضخمة":


"أدركت فيرتسي، الخبيرة في مجال البيانات الضخمة، أن المسوقين والمعلنين عبر الإنترنت يهمهم بشدة معرفة ما إذا كانت النساء حوامل. وقد أشارت في كتاباتها في عام 2014 إلى أن البيانات التسويقية للشخص العادي تبلغ قيمتها حوالي 10 سنتات بينما تبلغ قيمة بيانات المرأة الحامل حوالي 1.5 دولار. فقررت أن تجرّب إخفاء حملها عن أولئك الذين ينقبون عن البيانات عبر الإنترنت، واتضح أن الأمر بالغ الصعوبة. إذ كان عليها أن تتجنب استخدام بطاقات الائتمان في عمليات شراء كل ما يتعلق بالحمل. كما توجب عليها أن تطلب من عائلتها وأصدقائها تجنب الإفصاح عن حملها أو حتى ذكره على وسائل التواصل الاجتماعي. وحين خالف عمها ذلك وأرسل إليها على بريدها الخاص بالـ Facebook رسالة يذكر فيها حملها، حذفت رسائله وألغيت صداقته.. وفي النهاية، أدت محاولتها لتجنب الحوكمة الخوارزمية إلى تصنيف سلوكها باعتبارها شخص يُشتبه في كونه مجرمًا".


ثمة عواقب ترتبت على رغبة هذه المستخدمه في أن تكون هي المستفيدة الوحيدة من بياناتها. قد يظن البعض أن نتيجة تجربة فيرتسي الشخصية ليست بتلك الأهمية إذا ما قورنت بالصورة الكبيرة، لكن الخوارقراطية قادرة على القيام بأشياء أكثر خبثًا بكثير من مجرد معرفة معلوماتك التي تريد إخفائها (رغم أن أبسط خصوصياتك تشكل أهمية بالغة في خضم ما يُعرف بالثورة الصناعية الرابعة).


دعونا نعود سريعًا إلى "الجهاد البتلري". ترجع تسمية الحرب ضد (الرجال الذين لديهم) الآلات إلى جيهان بتلر التي قادت حركة التمرد الجماعي، وذلك بعد أن قرر طبيب آلي واعي ذاتيًا قائم على الذكاء الاصطناعي أن يجهض حملها دون إذنها لرؤيته أن طفلها "لا يستحق الحياة". وفي وقتنا هذا لدينا بالفعل تقنيات مستخدمة لا تختلف كثيرًا عن ذلك، من حيث أنها مكلفة أيضًا بتقرير ما إذا كان بعض الأشخاص يستحقون حياة كريمة أم لا.


في هذا الصيف، كشف تحقيق صحفي نشرته وكالة أسوشيتيد برس (AP) كيف سُجن مايكل ويليامز البالغ من العمر 65 عامًا ظلمًا لمدة تزيد على عام بتهمة قتله شخصًا، وذلك بناءً على الأدلة التي قدمتها ShotSpotter - وهي تقنية تعمل بالذكاء الاصطناعي للكشف عن الطلقات النارية، موجودة في أكثر من 100 مدينة في الولايات المتحدة. تضمّن التحقيق الذي أجرته وكالة أسوشييتد برس مراجعة "آلاف المستندات الداخلية ورسائل البريد الإلكتروني والعروض التقديمية والعقود السرية".

وقد أشار كل هذا إلى وجود "عددًا من العيوب الخطيرة في استخدام ShotSpotter كداعم للأدلة الجنائية" (Burke, Mendoza, Linderman & Tarm, 2021). ورغم ذلك، ما تزال أجهزة الشرطة تستخدم البرنامج في جميع أنحاء الولايات المتحدة اليوم.

بالطبع هناك العديد من المجالات الأخرى، غير مجال تطبيق القانون، تُستخدم فيها تقنيات الذكاء الاصطناعي الناشئة. فبرنامج مثل HireVue، وهو خدمة توظيف قائمة على الذكاء الاصطناعي تعتمد عليه شركات مثل Unilever وGeneral Electric، يستخدم خاصية تحليل تعبيرات الوجه بهدف "لاستنباط بعض السمات" بعد فحص المتقدمين للوظائف. ولم يتوقف البرنامج عن استخدام هذه الخاصية إلا بعد احتجاج عام دام لمدة ثلاث سنوات (Knight, 2021). وبحسب ما ورد فإن الشركة ستستمر في تحليل طبقات صوت المتقدمين للوظائف وسلوكهم للمساعدة في قرارات التوظيف.


هناك استخدام آخر لتقنيات الذكاء الاصطناعي آخذ في الظهور اليوم وهو الرعاية الاجتماعية المؤتمتة. في المملكة المتحدة (المملكة المتحدة)، تُرك أحد المقيمين في جنوب لندن بلا مأوى بعد حرمانه من مزاياه الاجتماعية لأن "النظام الذي يربط بيانات الرواتب بوزارة العمل والمعاشات أخطأ في الإبلاغ عن الدخل السابق لذلك الشخص من وظيفته في الإعلام" (Booth, 2019). ورغم تقديمه الأدلة على قسائم الأجور التي تثبت خطأ تقارير النظام، فإن "موظفي مركز العمل لم يستطيعوا فعل أي شيء"، إذ يُفترض أنهم غير قادرين على التدخل في النظام المؤتمت. إن العجز عن مواجهة ما تصدره أنظمة الذكاء الاصطناعي من أحكام يعد مشكلة ملحة تكشف لنا عن جهلنا بـ"تفاصيل عمل هذه الأشياء" - وهي مشكلة نوقشت باستفاضة في مقالٍ سابق لـ techQualia.


هل الأمر حتمي؟ (لا)


إن تطبيق القانون والتوظيف والرعاية الاجتماعية المؤتمتة ليست إلا بعض المجالات التي تُستخدم فيها تقنية الذكاء الاصطناعي للتحكم في بعض جوانب حياتنا اليومية واتخاذ قرارات بشأنها. وربما كان هذا هو السبب في أن الأمم المتحدة دعت من أسبوع مضى إلى فرض حظر عالمي على تقنيات الذكاء الاصطناعي، بحجة أن عواقب بعض أدوات الذكاء الاصطناعي على حقوق الإنسان أصبحت شبه حتمية. لكن السؤال الذي يطرح نفسه: ماذا لو لم يكن الأمر كذلك؟ بعبارة أخرى، ماذا لو لم يكن علينا أن نخشى من مستقبل تسود فيه هيمنة كل ما هو مدعوم بالذكاء الاصطناعي؟


في مقالٍ لها بعنوان "لطالما كنا ننتمي لفترة ما بعد الأنثروبوسين: الأنثروبوسين المضاد للواقع"، تدعونا المنظّرة الثقافية كلير كولبروك إلى تخيل مسار بديل للأنثروبوسين، أو المرحلة الحالية من التاريخ البشري التي تتميز بـ" ... تخريب البشر للكوكب بشكل غير قابل للإصلاح" (Colebrook, 2017). خلال تخيلها لهذا المسار البديل تسأل كولبروك، إن لم يكن هناك أنثروبوسين "ما الذي كنا سنخسره أو نكسبه؟" في عالم "ديون"، هناك بالفعل عواقب وخيمة (خسائر؟) حدثت في أعقاب الجهاد البتلري. إذ توقف السفر بين الكواكب لمدة قرن أو قرنين. وعاد النظام الإقطاعي نوعًا ما (للأسف). لكن وصية الكتاب المقدس الكاثوليكي البرتقالي والجهاد الذي انبثقت عنه كانا بالقوة الكافية لئلا نجد لذلك معارضين في الكون كله لآلاف السنين.

ويبقى السؤال، في ضوء القصص الاستقصائية العديدة التي تكشف عن الجانب المظلم لهذا النظام الذي يعمل بالذكاء الاصطناعي أو ذاك: هل هناك، على حد تعبير كولبروك، "عتبة قد نكون مستعدين عندها للتضحية بـ" التقدم" التاريخي الذي أحرزناه من أجل العيش بشكل أفضل"؟

يعتقد البعض أننا وصلنا لهذه العتبة بالفعل. ضع في اعتبارك، على سبيل المثال، آلاف المدافعين عن حقوق الخصوصية والمدنيين الذين يضغطون ضد استخدام بعض التقنيات المنتشرة بكثرة، مثل تلك التي تنتجها HireVue أو Shotspotter. كما أن هناك من يروّجون لـ "تقويض" التكنولوجيا، "ببساطة عن طريق الحط من قدر الأشياء التي بالغنا في تقديرها بشكل ساذج والتي تملأ حياتنا ومنازلنا ومدننا" (Sadowski, 2020). وفي عالم تتزايد فيه انتشار التقنيات الجديدة غير الخاضعة للرقابة التي ينشرها عمالقة الصناعة، يتصور الباحث التكنولوجي جاثان سادووسكي ظهور حركة من شأنها أن "تعامل التكنولوجيا باعتبارها ظاهرة سياسية واقتصادية تستحق التدقيق النقدي والضبط الديمقراطي، بدلاً من التعامل معها باعتبارها مصدرًا للتطبيقات والأجهزة الأنيقة" (Sadowski, 2021).

إن الأمر الذي يجعل "ديون" وثيق الصلة بما نعيشه اليوم هو السيناريو المحتمل الذي يقدمه للإجابة عن سؤال لطالما قُتِل بحثًا في جميع الجامعات المرموقة ومن مختلف الأكاديميين والخبراء وغيرهم من "أصحاب المصالح" - كيف سيبدو عالمنا في المستقبل؟


في "ديون" يُعرض هذا المستقبل باعتباره الماضي. وما لم نكن قادرين دائمًا على التساؤل والتحقيق بشأن ما يقدم نفسه باستمرار باعتباره أمر حتمي، فستتضائل إمكانية "الانسحاب" من هذا المستقبل الذي تحذرنا منه القصة تلو الأخرى، وهو ما ينبئ بزحف الواقع المرير القائم على الذكاء الاصطناعي نحو حياتنا.






 

ترجمة شريف مجدي خليل

References:


Booth, R. (2019, October 14). Computer says no: the people trapped in universal credit's 'black hole'. The Guardian. https://www.theguardian.com/society/2019/oct/14/computer-says-no-the-people-trapped-in-universal-credits-black-hole

Burke, G., Mendoza, M., Linderman, J., & Tarm, M. (2021, August 20). How AI-powered tech landed man in jail with scant evidence. Associated Press. https://apnews.com/article/artificial-intelligence-algorithm-technology-police-crime-7e3345485aa668c97606d4b54f9b6220

Colebrook, C. (2017). We have always been post-anthropocene. In R. Grusin (Ed.), Anthropocene feminism (pp. 1-20). University of Minnesota Press

Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation. Philosophy and Technology 29(3), 245–268. https://doi.org/10.1007/s13347-015-0211-1

Knight, W. (2021, January 12). Job Screening Service Halts Facial Analysis of Applicants. Wired. https://www.wired.com/story/job-screening-service-halts-facial-analysis-applicants/

Ratcliff, R. (2019, October 16). How a Glitch in India's Biometric Welfare System can be Lethal. The Guardian. https://www.theguardian.com/technology/2019/oct/16/glitch-india-biometric-welfare-system-starvation

Sadowski, J. (2021, August 9). I’m a Luddite. You should be one too. The Conversation. https://theconversation.com/im-a-luddite-you-should-be-one-too-163172

Sadowski, J. (2020). Too smart: How digital capitalism is extracting data, controlling our lives, and taking over the world. MIT Press. https://doi.org/10.7551/mitpress/12240.001.0001

111 views
bottom of page