أخلاقيات الذكاء الإصطناعي: عندما أصبح للخوارزمية أخلاق ومعنى!

في عالم فوضوي متعايش مع التغييرات والثورات بمختلف أشكالها، تنشأ تحديات جديدة غالباً ما يتم التكهن بحدوثها واستشرافها (ولو كان بشكلها العام أو الخارجي) قبل عدة عقود وغالباً ما يتم الوصول إلى النقطة نفسها، مواجهة التحديات أو “التهديدات” في حال ارتباطها بأسباب وجودية والعمل على تأطيرها من عدة جوانب (خصوصاً الجانب الأخلاقي منها)  للتوصل إلى الحلول الممكنة والفعالة في إيقافها.

شهد العقد الماضي تحولات جذرية في مفهوم استخدام الذكاء الإصطناعي، وعلى الرغم من شدة الذهول والدهشة المرتبطة بتقنيات الآلة وخوارزمياتها التي يتم التوصل إليها واستعراض إمكانياتها، إلا أنه حينما تتحول أدوات الذكاء الإصطناعي تلك إلى وسائل في يد السلطة أو مكامن القوة لاستخدامها على البشر، ستكون نتائجها حينها ضحية المساءلات الأخلاقية بغض النظر عن جودة أو تصنيف النتائج تلك.

واليوم ليس مستغرباً على الإطلاق ما توصل إليه قاموس المصطلحات في الأعوام القليلة الماضية، أخلاقيات الذكاء الاصطناعي بمختلف تسمياتها أصبح واقعاً اليوم (ولو أنها ما زالت حبراً على ورق) والسعي للنقاش حولها بدأ يأخذ الزخم المطلوب بدون وجود تحركات فعلية نحوه كون إيجاد الحلول وتوحيد وجهات النظر عقيم للغاية في عدة نقاط، والتي من أهمها إيجاد أرضية مشتركة تشريعية وتنفيذية ينطلق منها الحل بالشكل الأمثل.

ضمن المقال، سيتم عرض آلية تبلور المصطلح وما هي التحركات التي دفعت بالمنظمات إلى اتخاذ خطوات حول دراسة مفهوم المصطلح ومناقشته وتحديد مبادئ له.

 

أخلاقيات الذكاء الإصطناعي؛ ما الذي يقصد بها وإلى ماذا تستند؟

هي عبارة عن مجموعة من القيم والمبادئ والتقنيات التي تستند على معايير لتحديد الصواب والخطأ وتوجيه السلوك الأخلاقي في تطوير ونشر تقنيات الذكاء الإصطناعي. يعتبر مجال أخلاقيات الذكاء الاصطناعي جزءاً صغيراً جداً في الأخلاقيات التطبيقية، وظهرت نتيجة للتحديات الجديدة التي خلفتها التقنيات المرتبطة بالذكاء الاصطناعي متحدية بذلك المعايير والأنظمة المفاهيمية الحالية.

لا توجد حتى الآن مرجعية عامة للمصطلح على الرغم من ظهور العديد من الجمعيات والمنظمات التي أصدرت العديد من الوثائق المتعلقة بالمبادئ والمعايير التي يجب اتباعها للوصول إلى تقنيات ذكاء اصطناعي جديرة بالثقة نذكر منها المجموعة الأوروبية لأخلاقيات العلوم والتقنيات الجديدة (EGE) و فريق الخبراء رفيع المستوى المعني بالذكاء الاصطناعي (AI HLEG).

 

إعلان

المراحل التي مرَّ بها مفهوم أخلاقيات الذكاء الإصطناعي

تمثلت التحركات نحو تحديد أخلاقيات الذكاء الاصطناعي عبر ثلاث مراحل بارزة (قد يختلف تحديدها بشكل دقيق في وقت لاحق خصوصاً مع عدم اكتمال نصاب المرحلة الأخيرة التي نعايش أحداثها حالياً)، من الملاحظ خلال هذه المراحل تباين حدة الردود وقلة التأثير بشكل عام على الرغم من التقدم الهائل الذي توصلت إليه المنظمات والتجمعات المُشكلة لهذه الغاية.

مخطط يوضح وثائق تم طرحها من قبل الشركات والمنظمات حول أخلاقيات الذكاء الاصطناعي

على الرغم من عدم وجود تصور نهائي لتحديد أخلاقيات الذكاء الإصطناعي، إلا أنه بين عامي 2016 و 2019 صدر ما يقارب 74 وثيقة أو مجموعة من المبادئ الأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي وخلال العام الحالي تباطأت الجهود الفعلية واقتصرت على اجتماعات للنقاش حولها من خلال مؤتمرات عبر الإنترنت (نتيجة لتفشي جائحة كورونا).

 

المرحلة الأولى: بداية نشوء الدعوات للتحرك نحو المفهوم الأخلاقي للذكاء الاصطناعي

مع بداية فهم التحديات والمخاطر والتهديدات المحتملة للتقدم السريع في مختلف مجالات الذكاء الإصطناعي و البحث عن طرق لاحتوائها، ظهرت لاحقاً العديد من الحالات التي تؤكد على ضرورة النظر الجاد في احتمال عن أن يكون الذكاء الاصطناعي في متناول اليد واستخدامه “بشكل لا أخلاقي” ضد البشر الآخرين.

إعلان

تم التركيز في هذه المرحلة على الأخلاق وأُهمل الجانب القانوني منها وتوفر البنية التحتية المناسبة، كما أنفقت الشركات التقنية الكبرى الملايين في سبيل إجراء البحوث المناسبة لاستكشاف أخلاقيات الذكاء الاصطناعي. بداية النقاشات المتعلقة حول أخلاقيات الذكاء الاصطناعي في هذه المرحلة اعتبرت أن التقنيات الجديدة ستكون محصورة فقط بتقديم الإفادة في حل المشكلات فقط وابتعدت عن أي أضرار محتملة متوقع حدوثها.

الانقسام الذي حصل في هذه المرحلة هو عدم تأطير المسألة الأخلاقية بدقة خصوصاً  بالنسبة للشركات التقنية؛ لتوضيح ذلك بشكل أكبر يتم فعلياً استخدام الأخلاق كتسمية لطيفة أو خضراء لمفهوم سلبي أوسع يطلق عليه “غسل الأخلاق”. بمعنى أدق يمكن أن يتم إطلاق تقنية معينة والتركيز عليها من طرف شركة ما على “أنها موجهة للخير أو تحقيق أهداف ايجابية” بينما يتم بيع التقنيات تلك خلف الكواليس للحكومات والعملاء الآخرين.

 

المرحلة الثانية: ارتفاع حدة التصعيد نحو اتخاذ اجراءات ملموسة

من الأمور الايجابية في هذه المرحلة هو التركيز على نتائج دراسات وأبحاث من قبل متخصصين مستقلين في علوم الكمبيوتر والذكاء الاصطناعي، القسم الأكبر منهم كان يعمل في كبرى الشركات التقنية واطلع على خفايا التدخلات التي تقوم بها الشركات باستخدام خوارزميات الذكاء الاصطناعي. 

من بين الأبحاث المميزة التي تم نشرها في هذا الخصوص هي “fairness and machine learning”، حيث سلطت الضوء على التحديات الأخلاقية ومناقشتها والتخفيف من حدة المشاكل قدر الإمكان. أما من ناحية الدراسات التي استعرضت حالات تم استخدام الذكاء الاصطناعي فيها وظهر “التحيز في الخوارزمية” بشكل واضح توجد حالتين هنا تستحق كل منهما الإضاءة عليها:

  • دراسة gender shades: كشفت الدراسة عن نتائج خوارزميات التعرف على الوجه التي تم نشرها من قبل شركات مايكروسوفت و IBM، بينت الدراسة على إخفاق الخوارزمية في التعرف على وجه الأشخاص ذوي البشرة السوداء أو الملونة بشكل عام مع تباين واضح من ناحية تحديد أو التعرف على أوجه أشخاص البشرة البيضاء، تم استعراض نتائج الدراسة على شكل تقرير مفصل مع نتائج مهمة حول الموضوع لتشكيل مشاريع مضادة “أكثر عدالة”.
  • تحقيق عن تحيز الخوارزمية: تم إجراء تحقيق من قبل منظمة propublica المتخصصة في الصحافة الاستقصائية والشفافية حول الصالح العام، التحقيق يشير إلى استخدام أداة COMPAS في المحاكم والمؤسسات الحقوقية، حيث وجدت الاداة أن الأشخاص ذوي البشرة السوداء أكثر عرضة للعودة للجريمة مقارنة بالأشخاص ذوي البشرة البيضاء دون وجود دلائل على ذلك.

مع بداية عام 2018، بدأت الشركات الكبرى بالإعلان عن مناصرتها للدعوات التي تركز على تحديد الجانب الأخلاقي من الخوارزميات والتقنيات المستخدمة من قبلها، أبرزها كانت لشركات مايكروسوفت و IBM و الإعلان عن أداة fairness flow من قبل فيسبوك، الجانب الأخلاقي لم يكن شيئاً إيجابياً بالنسبة لجوجل حيث شكلت مجلس “بالاسم فقط” لمناقشة أخلاقيات الذكاء الاصطناعي لمناقشة مشاريع الشركة دون وجود حق نقض فعلي! سرعان ما تم حل المجلس بعد وجود خلافات كثيرة بين أعضائه في وقت لاحق.

قبل نهاية العقد الماضي، بدأت تعلو الأصوات واحد تلو الآخر حول المفهوم الأخلاقي، وتم نشر العديد من المقالات المؤثرة التي تدعو إلى ضرورة اتخاذ خطوات جدية حول الموضوع، سرعان ما بدأت التحركات الفعلية بعد تلك الدعوات والتي حددت فيما بعد بداية المرحلة الثالثة.

 

المرحلة الثالثة: تأثير التحركات السياسية والمجتمعية والصحية في الجانب الأخلاقي من الذكاء الاصطناعي

بداية المرحلة كانت استكمال عقد المؤتمرات ومناقشة المبادئ التي تم طرحها سابقاً في عام 2019، التحرك ضمن عام 2020 شكل نقطة البداية هنا مدفوعاً بالمشاعر التي حفزتها حركة black lives matter (إلغاء مصطلحات العبودية من الخوارزميات وغيرها من الأمثلة)، حيث تم التركيز في هذه المرحلة على الوقوف في وجه استخدام الذكاء الاصطناعي من قبل السلطات وتعزيز مصالح الأقوياء.

من أبرز الخطوات الفعلية التي تم اتخاذها ضمن هذه المرحلة هو الصراع الذي حصل في المحاكم مع أصحاب النفوذ والسلطات وعمالقة الشركات التقنية نتيجة الاستخدام الغير قانوني لخوارزميات الذكاء الاصطناعي، وحينها بدأت العديد من الشركات (وما زالت حتى تاريخ كتابة المقال) تعلن انضمامها “اسمياً” إلى المبادئ التي تم إقرارها حول أخلاقيات الذكاء الاصطناعي.

الجانب الصحي كان متباين النتائج نوعاً ما من ناحية الإيجابيات والسلبيات التي حصلت مدفوعة بآثار جائحة كورونا، السلبية البارزة هنا هو نشوء مخاطر جديدة من مكامن السلطات نفسها أهمها التوجه لمراقبة السكان بدلاً من التركيز على مراقبة الوضع الصحي العام في البلاد (بريطانيا وتطبيق تتبع فايروس كورونا الحكومي الخاص بها على سبيل المثال).

 

أبرز التحديات الأخلاقية المرتبطة بالذكاء الاصطناعي

 

الجدال الذي حصل نحو تحديد أخلاقيات الذكاء الاصطناعي يتمثل في توجهين رئيسيين، يشير الأول إلى تأييد وضع أُطر أخلاقية وتحديد مبادئ يتم الاستناد إليها عند إنشاء تقنيات الذكاء الاصطناعي أو نشرها والسبب الأبرز الذي يدعم هذا التوجه هو تبديد المخاوف المتعلقة بالذكاء الاصطناعي بشكل عام، أما التوجه المضاد(منهج الشركات التقنية المتبوع بالمصالح السياسية والاقتصادية) فكان معارضاً في الأساس لفرضية تحديد الجانب الأخلاقي كونه يحدّ من التطوير والابتكار في الانظمة التي تعتمد على الذكاء الاصطناعي (مفهوم غسيل الأخلاق) دون الالتفات إلى المخاطر المحتملة. 

بينما من ناحية التحديات أو المعضلات الأخلاقية التي تواجه خوارزميات الذكاء الاصطناعي، يمكن تحديد أبرزها كالآتي:

  1. الافتقار إلى الشفافية أثناء اتخاذ القرارات
  2. عدم الحيادية والتحيز أو التمييز العرقي وغيره
  3. المخاوف المتعلقة بحقوق الإنسان والقيم الإنسانية الأساسية
  4. المراقبة وجمع البيانات وانتهاك خصوصية المستخدمين للأنظمة

التحديات تنشأ تبعاً لظروف استخدام أنظمة أو خوارزميات الذكاء الاصطناعي ضمن بيئة معينة، وتختلف التحديات بين بيئة وأخرى وفقاً للعديد من العوامل، لذلك فإن النهج المتبع في تحديد مبادئ وأخلاقيات الذكاء الاصطناعي في الوثائق الأخيرة أصبح يركز على العديد من جوانب الحياة كافة.

 

تعلّم الآلة كيفية تحديد الأخلاقيات نفسها بنفسها

على الرغم من الاعتقاد الشائع أن خوارزميات الآلة لا تحتاج إلى التدخل البشري، إلا أن البيانات المقدمة لها “بغض النظر عن حجمها” يمكن أن تخضع للرقابة البشرية، الاختلاف سيكون في الإجماع على الأخلاقيات أمر لا مفر منه، والطموح المبالغ به نحو ذكاء اصطناعي مثالي أمر شبه مستحيل، حيث يمكن في أفضل الأحوال التوصل إلى تحقيق العدالة في القرارات لا أكثر دون التطرق إلى الجوانب الأخلاقية المرتبطة بكل طرف.

بذور الجانب الأخلاقي للذكاء الاصطناعي كانت استشرافية منذ زمن بعيد جداً، الأب الروحي لأفكار الخيال العلمي تلك هو إسحاق أسيموف (Isaac Asimov) مبتكر “القوانين الثلاث للروبوتات” في أربعينيات القرن الماضي حيث جاءت القوانين تلك نتيجة المخاوف المحتملة للذكاء الاصطناعي. وتركز القوانين بشكل واضح على سلامة البشر حيث يحظر القانون الأول الروبوتات من إيذاء البشر أو السماح بتطبيق الضرر عليهم في حال رفض الأوامر، بينما يأمر القانون الثاني الروبوتات بطاعة البشر إلا إذا كانت الأوامر لا تتوافق مع القانون الأول، أخيراً يأمر القانون الثالث الروبوتات بحماية نفسها طالما ذلك لا يتعارض مع القانونين الأول والثاني.

توجد عدة كتيبات رقمية توضح كيفية التعامل في حالات اكتشاف شكوك أخلاقية في مشاريع الذكاء الاصطناعي مع طرح توجهات أو طرق للإجابات عن حالات الفرض القسرية من قبل أرباب العمل في هذا الخصوص

وعلى الرغم من المحاولات العديدة الماضية سواء الحكومية منها (محاولة الحكومة في كوريا الجنوبية بطرح ميثاق أخلاقيات الذكاء الاصطناعي في 2007) أو المستقلة في وضع منهج أو مبادئ معينة، أو طرح الحلول الفردية كدلائل للتعامل مع حالات اكتشاف تعارض مع المفهوم الأخلاقي في الشركات أو بيئة العمل؛ كمثال على ذلك كتيبات مصورة تشرح عدة حالات مفترض حدوثها، إلا أن للمنظمات الأوربية حالياً الكلمة الأقوى في المساعي الحالية لتوحيد الجهود في التوصل لإجماع مبدئي حول المفهوم الأخلاقي خصوصاً مع توجه كثير من الشركات الأوروبية اليوم لاعتماده ضمن سياستها “مع ترك الباب مفتوحاً على مصراعيه” لتعديل وتنقيح السياسات والمبادئ هذه وربما التخلي عنها وإهمالها مثلما حدث مع جوجل سابقاً.

 

أهمية الجانب الأخلاقي للذكاء الاصطناعي و إمكانية تطبيقه

تحقيق مصلحة الفرد أو الجماعة “أخلاقياً” أمر مطلبي كون الأخلاق بشكل فلسفي تشير إلى تحقيق أمور أو مصالح إيجابية للجماعة، لكن المشكلة فعلياً لا تكمن فقط بتبني مفهوم أخلاقي واحد وتطبيقه على مختلف الجماعات والثقافات سويّة، بل تبرز عدة أسئلة متعلقة بنفس الموضوع أهمها:

  • ما فائدة الإطار الأخلاقي في حال عدم وجود قوة تأثير مرتبطة به؟
  • ما هي آلية تطبيق المبادئ والأُطر الأخلاقية و”القانونية” في حال تم اعتمادها لاحقاً؟
  • هل سيكون التوصل لاجتماع شامل حول المبادئ الأخلاقية ممكناً؟

 

قد يكون من الممكن الإجابة عن الأسئلة تلك في حال حصول إجماع فعلي “عالمي” حول المبادئ الاخلاقية للذكاء الاصطناعي، لكن المشكلة التي سيصعب حلها تكمن في احترام المبادئ المتفق عليها أو ضمان تحقيق ذلك. خصوصاً مع وجود الكثير من الوسائل لتبرير التهرب من حالات مشابهة سواء كانت من أنظمة الدول بشكل عام أو الشركات بشكل خاص والتي تسعى في العموم إلى تقويض أي تحرك يؤدي إلى الضرر في مصالحها مهما بلغت حالة الإجماع حول ذلك.