الذكاء الاصطناعي
أخر الأخبار

لماذا يتم وصف الذكاء الاصطناعي بممارساته غير الأخلاقية؟

الذكاء الاصطناعي هو فرع لعلوم الكمبيوتر، غالبًا ما تم انتقاد علماء الكمبيوتر بسبب عدم مراعاة الآثار الأخلاقية والاجتماعية المحتملة لأبحاثهم، اشتد هذا النقد في السنوات الأخيرة منذ ثورة التعلم العميق وانفجار المعلومات، وكلاهما زاد من تأثير وقوة تكنولوجيا الحوسبة على المجتمع.

هذا النقد له ما يبرره إلى حد كبير، في أعقاب الحرب العالمية الثانية، تم وضع الإعلان العالمي لحقوق الإنسان، والذي حدد الحريات الأساسية التي يجب أن يتمتع بها كل إنسان دون استثناء، حدد إصدار تقرير بلمونت في عام 1978 المبادئ والإرشادات الأخلاقية التي يجب أن يتبعها الأفراد الذين يقومون بأبحاث على البشر، والتي كان لها تأثير عميق على طرق البحث في الطب والعلوم الاجتماعية.

نظرًا لأن معظم مواهب الذكاء الاصطناعي معزولة في الصناعة أو الأوساط الأكاديمية، فقد يكون من المفيد تشجيع الباحثين على التبرع بنسبة مئوية من وقتهم لمبادرات العمل المجاني بين المجتمع القانوني لإتاحة الممارسات الأخلاقية، يمكن أن يساعد تعقيد تحديات العالم الحقيقي في الواقع على تعزيز فهم الأساليب الحالية وإظهار التأثير حيثما كان الأمر أكثر أهمية.

ماذا قال تقرير بلمونت؟

قدمت ثلاثة مبادئ شاملة تحكم البحث المستقبلي حول الموضوعات البشرية:

  • احترام الأشخاص : طلب موافقة مستنيرة من المشاركات دون خداع.
  • المنفعة : لتعظيم الفوائد وتقليل المخاطر على موضوعات البحث.
  • العدل : المعاملة العادلة للمواطنين من خلال إجراءات معقولة والأخلاقية.

في المقابل، ظلت علوم الكمبيوتر غير منزعجة إلى حد كبير من القيود المفروضة على أساليب البحث، من الناحية التاريخية، لم تدفع معظم مناهج علوم الكمبيوتر سوى القليل من التركيز على تدريس المبادئ الأخلاقية، إن لم يكن من دونها، من المحتمل ألا يكون هذا النقص في التركيز متعمدًا، ولكن بدلاً من ذلك، كان للتكنولوجيا التي ينتجها علماء الكمبيوتر تأثير ضئيل نسبيًا على حياة عامة الناس.

لم يعد هذا هو الحال، يعمل علماء الكمبيوتر الآن مع مجموعات بيانات كبيرة مثل البيانات الطبية، وإنشاء خوارزميات لاكتشاف وتشخيص أشياء مثل السرطان ونمذجة انتشار المرض؛ بيانات الوسائط الاجتماعية والأخلاقية، وإنشاء أنظمة توصية محسنة وخوارزميات أخرى لزيادة الإيرادات من خلال تعزيز مشاركة المستهلك، البيانات المالية، وإنشاء خوارزميات لتقرير الأفراد الذين سيحصلون على قروض أو حتى الشركات التي يجب أن يستثمر فيها الأشخاص.

وقد زاد التأثير الذي يمكن أن تحدثه مثل هذه الإبداعات على المجتمع بشكل ملحوظ، تم إدخال عدد قليل من المتطلبات الرسمية لإنفاذ الممارسات الأخلاقية في هذا الحقل.

هذه الزيادة السريعة في القوة تؤدي بطبيعة الحال إلى تفاقم القيود المتضاربة، يرتكز الموقف القانوني على سابقة قانونية تنظر في كيفية الحكم على قضايا مماثلة في الماضي وكيف يمكن تطبيق الحكم في ظروف جديدة، كما هو الحال مع أي تقنية جديدة، يوجد حاليًا عدد قليل من السوابق، مما يجعل المشهد غير منظم إلى حد كبير، فإن ما هو ممكن تقنيًا لا يتوافق بالضرورة مع ما يعتبر قانونيًا، ولا تتوافق أي من هذه الرؤى بالضرورة مع ما ترغب المنظمات في متابعته، أو ما يعتبره الجمهور “أخلاقيًا” علاوة على ذلك، فإن الهدف من هذه القيود يتغير دائمًا، أفضل ما يمكننا أن نأمل في القيام به هو تحويل هذه الأهداف الأخلاقية بحيث تبدأ في التداخل بشكل أوثق، بدلاً من التباعد بشكل أكبر.

في السنوات الأخيرة فقط، بدأ الأفراد في التحدث وتوضيح المخاطر التي قد تنطوي عليها أبحاث علوم الكمبيوتر غير المقيدة، فقد شهدنا دفعة نحو الممارسات الأخلاقية لعلوم الكمبيوتر، مع التركيز على الشفافية والمساءلة.

بدأت مؤسسات مثل هارفارد في تضمين الأخلاقيات في مناهج علوم الكمبيوتر، وقد رأينا مجلات بحثية مرموقة مثل Nature and Science جعلتها مطلبًا لمجموعات البيانات والتحليلات لتكون متاحة للجمهور، مع تحديد مصدر البيانات (على سبيل المثال) ، هل تم الحصول عليها بموافقة مستنيرة) تتطلب المؤتمرات مثل” مؤتمر أنظمة معالجة المعلومات العصبية” (NeurIPS) أيضًا أوراق علوم الكمبيوتر لتقديم بيان تأثير أوسع، يشير إلى أية آثار الممارسات الأخلاقية أو مجتمعية لأعمالهم البحثية، هذه المراجعة مماثلة لتلك التي تقوم بها المبادرات الحكومية أو مجالس المراجعة المؤسسية (IRBs) في الجامعات والهيئات الممولة.

من الواضح أن هذه الإجراءات لا تحل المشكلة الأخلاقية الأكبر حاليًا، هم قليلون ومتباعدون، ويمكن تطبيقها بشكل انتقائي، أو تعمل فقط كأختام مطاطية للموافقة، لكنها بداية محادثة لم تكن موجودة من قبل تتطلب معالجة قضايا الخصوصية الفردية في مجموعات البيانات واسعة النطاق، مثل مخاطر إعادة تحديد الهوية أو الكشف عن المعلومات أو التأثير السلبي أو عدم ثقة الجمهور في الذكاء الاصطناعي، تدابير أكثر شمولاً تم اتخاذها في الطب والعلوم الاجتماعية دون إعاقة أهداف البحث بشدة، وبالتالي لا ينبغي أن يمنع ذلك عائقًا كبيرًا أمام مجتمع علوم الكمبيوتر.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى