الذكاء الاصطناعي

إطار عمل أخلاقي جديد لتكنولوجيا المستقبل

شهدت السنوات الأخيرة ارتفاع الأصوات التي تُطالب بوضع ضوابط أخلاقية وتشريعية لتكنولوجيا الذكاء الاصطناعي وغيرها من تقنيات المستقبل، وعادة ما تأتي هذه المطالبات من داخل القطاع الحكومي أو من منظمات المجتمع المدني!

بل إنه وفي عدة مناسبات كانت الشركات الخاصة هي مصدر هذه المطالبات! كما في التصريح الشهير لإلون مسك (Elon Musk) وكما في حالة أمازون قبل أشهر وأخيراً مايكروسوفت!

حيث كتب بيل سميث، رئيس شركة مايكروسوفت والمسؤول القانوني فيها، مقالة تدعو الحكومات للتدخل وفرض بعض القواعد على تكنولوجيا التعرف على الوجه.

“حتى المكنسة يمكن استخدامها في كنس الأرضية أو ضرب أحدهم على رأسه. كلما كانت الأداة قوية كلما عظمت ميزتها أو الضرر الذي يمكن أن تحدثه”.

فما هو الجديد في هذا المجال؟

إطار عمل أخلاقي للذكاء الاصطناعي

الجديد هو إطار عمل أخلاقي للتعامل مع تكنولوجيا المستقبل أطلقته عدة مؤسسات في الولايات المتحدة.

ففي شهر مارس/أذار من هذا العام، اجتمع فريق من عُمد عمدة مدن أمريكية في في مدينة أوستن بولاية تكساس الأمريكية لمناقشة آثار الابتكار السريع على المواطنين وعلى الحكومات.

تطرق النقاش إلى تكنولوجيا التعرف على الوجه وعرضت كاتي جوزيف وهي خبيرة في آثار التكنولوجيا الناشئة على المجتمع وتعمل بمعهد المستقبل، الوجه الآخر للعملة.

قالت جوزيف إن الخوارزميات التي وعدت بالتنبؤ بحالات الاعتداء على الأطفال استهدفت الأسر الفقيرة بغير قصد، فيما يتم استغلال تكنولوجيا المنزل الذكي بواسطة المعتدين للتحرش بضحاياهم والسيطرة عليهم. وذكرت أن الذكاء الاصطناعي الناشئ يمكنه إنتاج فيديوهات وسمعيات “عميقة الزيف” تظهر الأفراد وهم يفعلون أشياء لم يفعلوها قط بما يفتح باب المعلومات المضللة على مصراعيه!

وأشار الفريق إلى مجموعة أدوات أصدروها حملت اسم EthicalOS، وهي إطار عمل لـ”صناع السياسة والممولين ومدراء المنتجات والمهندسين وغيرهم يمكنهم من خلاله مواجهة المشاكل قبل حدوثها”.

وتتمثل الفائدة الرئيسية لهذه الأدوات في تمكين عُمدة المدينة والمسؤولين الحكوميين بشكل عام من أن يكونوا على دراية بالجوانب المختلفة للتكنولوجيا وبشكل يساعدهم على إحداث تغيير على الفور في الهياكل التشريعية لحماية الصالح العام وخصوصية البيانات الشخصية للمواطنين.

ويتكون إطار العمل من أدوات تنقسم إلى ثلاثة أنواع تهدف إلى:

1- التفكير بشكل أوسع حول التكنولوجيا والمستقبل

2- تحديد المخاوف الحالية

3- وتضمين ذلك في آلية تصميم السياسات والإجراءات المستقبلية

ولمساعدة المسؤولين الحكوميين على التفكير بشكل أوسع حول التكنولوجيا، طرح الفريق سيناريوهات مستقبلية ليتم دراسة تبعاتها، وأُعطي العُمد ثماني “مناطق خطرة” يصعب فيها تخفيف مخاوف التكنولوجيا الناشئة مثل إدمان التكنولوجيا واستخدامها من قبل جهات إجرامية.

يمكنك التعرف بنفسم على إطار العمل هذا والبدء في استخدامه من خلال زيارة الموقع الخاص به.

الوسوم

مقالات ذات صلة

زر الذهاب إلى الأعلى
إغلاق