"معلومات الوزراء" يستعرض أبرز التحديات الأخلاقية للذكاء الاصطناعى

مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء
مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء
كتبت هند مختار
أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً تناول خلاله موضوع أخلاقيات الذكاء الاصطناعي والتحديات التي يواجهها وسبل التصدي لها.
 
وأشار التحليل إلى تزايد الاعتماد العالمي على تقنيات الذكاء الاصطناعي في شتى مجالات الحياة، كالرعاية الصحية، والتعليم، وأنظمة التمويل والصناعة والتجارة؛ حيث تشير التقديرات إلى أن 35% من المؤسسات العالمية تستخدم تقنيات الذكاء الاصطناعي، فضلًا عن تأكيد 83% من الشركات في مختلف المجالات على أن إدراج تقنيات الذكاء الاصطناعي ضمن استراتيجيتها المستقبلية أصبح يمثِّل أولوية قصوى، الأمر الذي يثير المخاوف بشأن التداعيات المحتملة للاعتماد المفرط على هذه التقنيات، لا سيَّما التحديات الأخلاقية الخاصة بالحفاظ على خصوصية الأفراد وقيم الحرية والابتكار وعدم التمييز.
 
ولفت مركز المعلومات إلى أن أخلاقيات الذكاء الاصطناعي تُعرف بأنها مجموعة المبادئ والإرشادات والمعايير التوجيهية التي يتعين على مطوري الذكاء الاصطناعي ومستخدميه اتباعها في تصميم واستخدام التقنيات، وتهدف هذه القواعد إلى ضمان المسؤولية الاجتماعية والأخلاقية عند تصميم واستخدام الذكاء الاصطناعي، بحيث يتوافق مع الأسس الأخلاقية، ومبادئ احترام حقوق الإنسان.
 
وأوضح التحليل المبادئ التي تتضمنها القواعد الأخلاقية للذكاء الاصطناعي وهي على النحو التالي:
 
- الحيادية وعدم التحيز: حيث يتعيَّن تصميم أنظمة الذكاء الاصطناعي بطريقة تضمن أن تكون النتائج والقرارات التي تقدمها حيادية وغير منحازة، وبحيث تتجنب التمييز القائم على العرق أو الدين أو الجنس أو العمر أو الحالة الاجتماعية والاقتصادية، والتعامل بشكل مُنصف ومتساوٍ مع جميع الأفراد، وذلك لعدم مفاقمة التحيزات الثقافية والمجتمعية القائمة.
 
- الشفافية والقابلية للتفسير: ويعني ذلك ضرورة تمتع أنظمة الذكاء الاصطناعي بالشفافية من خلال تقديمها للمبررات والتفسيرات المتعلقة بالقرارات والإجراءات التي تتخذها، مما يُسهم في بناء المصداقية. هذا بالإضافة إلى تمكين المستخدمين من فهم آليات عمل أنظمة الذكاء الاصطناعي بما يشمل البيانات والخوارزميات المتضمَّنة في عمليات صنع القرار، والنتائج التي يُقدِّمها.
 
- احترام الخصوصية وحماية البيانات: إذ يجب تنفيذ تدابير محكمة وصارمة تضمن عدم انتهاك الخصوصية وحماية البيانات الشخصية لمستخدمي أنظمة الذكاء الاصطناعي، وذلك من خلال استخدام البيانات الشخصية فقط من أجل الأغراض المحددة بشرط موافقة المستخدم وإخفاء هويته.
 
- المسؤولية والمساءلة: حيث يجب على مطوري أنظمة الذكاء الاصطناعي والجهات المعنية تحمل المسؤولية والخضوع للمساءلة عن آثار ومخرجات تلك الأنظمة، بالإضافة إلى وضع آليات لمواجهة وتصحيح الأضرار المحتملة التي قد تنجم عن الأنظمة الرقمية التي يتم ابتكارها.
 
- مراعاة الأمن والسلامة: وذلك من خلال اتخاذ التدابير اللازمة للحد من المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، ويتضمن ذلك الحيلولة دون إمكانية استخدامها بشكل ضار أو إجرامي، وكذلك حمايتها من الاختراق والوصول غير المصرح به لبيانات ومعلومات المستخدمين.
 
وأضاف المركز في تحليله أن الاعتماد على تقنيات الذكاء الاصطناعي يخلق جملة من التحديات الأخلاقية والإنسانية، والتي يمكن التطرق إلى أبرزها فيما يلي:
- التأثير على الخصوصية: فرغم أن تقنيات الذكاء الاصطناعي تستهدف خدمة البشر وتيسير سبل حياتهم في المقام الأول، وذلك مع التأكيد على الحفاظ على سرية بياناتهم من خلال إجراءات الأتمتة، فإنه ثبت مع تطبيق هذه التقنيات أن تقويض الخصوصية وانتهاك سرية البيانات سمة غالبة؛ حيث إن تزايد الاعتماد على كاميرات المراقبة، واستخدام الهواتف الذكية، والإنترنت جعل من السهل جمع البيانات عن الأشخاص ومراقبة تحركاتهم، بما يفضي في نهاية المطاف إلى انتهاك خصوصياتهم وحرياتهم المدنية، ولا تقتصر المخاوف المتعلقة بانتهاك الخصوصية على مجرد مراقبة تحركات الأشخاص، وإنما في الوصول غير المصرح به لبياناتهم ومعلوماتهم الشخصية وسوء استخدامها.
 
- الذكاء الاصطناعي يفاقم التحيز: فالقول بأن الذكاء الاصطناعي أكثر حيادية من البشر أمر غير صحيح؛ نظرًا لأن البشر -الذين لا يخلون من التحيز- هم من يقومون ببرمجة أنظمة الذكاء الاصطناعي وتقنياته، ومن ثمّ، فإنهم ينقلون تحيزاتهم إلى تلك الأنظمة.
 
-مفاقمة عدم المساواة في توزيع الدخل: مع التوقعات التي بدأت تتحقق في الواقع بشأن تراجع الاعتماد على القوى العاملة البشرية مقابل الاعتماد على تقنيات الذكاء الاصطناعي لإنجاز الوظائف والمهام، فمن المرجَّح ارتفاع معدلات البطالة، وما يصاحبها من ارتفاع معدلات الفقر، في مقابل تزايد الأرباح التي يحصل عليها أصحاب الشركات، لا سيَّما مع توفير الأموال المخصصة لبند أجور العاملين، بما يفاقم عدم المساواة في توزيع الدخول بين الأفراد.
 
- تراجع الابتكار لدى البشر: فاستمرار إحلال تقنيات الذكاء الاصطناعي محل البشر في العديد من الوظائف والمهام قد يؤدي إلى تراجع إسهامات البشر، ومن ثمّ، تقويض مهارات الابتكار لديهم، فضلًا عن تفاقم الشعور السلبي لدى العديد منهم بشأن جدوى مهامهم ودورهم في ظل المهام المعقدة التي تؤديها أنظمة الذكاء الاصطناعي.
 
- مخاوف متزايدة في القطاع الصحي: فرغم التقدم الذي يشهده قطاع الصحة في ظل اعتماده المتزايد على أنظمة الذكاء الاصطناعي، فإن هناك جُملة من المخاوف بشأن عدم دقة الأنظمة في بعض الحالات، والتي تنطوي على عواقب وخيمة في قطاع الصحة؛ نظرًا لأنها قد تعرض بعض الأشخاص لخطر فقدان حياتهم، فضلًا عن أن الاعتماد على الروبوتات الطبيّة لا يلبي حاجة المرضى النفسية للشعور بالطمأنينة، والتي توفرها الأطقم الطبية البشرية.
 
- تهديد الحريات: حيث تُعد تقنية التعرف على الوجه سلاحًا ذا حدين، فعلى الرغم من أنها تيسر عملية ضبط المجرمين، والمطلوبين للعدالة، فضلًا عن إقدام بعض الدول على استخدامها إبان جائحة كورونا للتأكد من امتثال المواطنين للإجراءات الاحترازية والحفاظ على الصحة العامة، فإنها يمكن استخدامها بما يهدد قيم الحرية والديمقراطية.
 
وقد أبرز التحليل آليات مواجهة التحديات الأخلاقية للذكاء الاصطناعي ويتمثل أبرزها فيما يلي؛ التوعية والتثقيف بأخلاقيات الذكاء الاصطناعي؛ وذلك من خلال تعزيز الوعي والمعرفة لدى الأفراد والمؤسسات فيما يخص مخاطر وتحديات وحدود الذكاء الاصطناعي وتثقيف المستخدمين والعملاء حول كيفية حماية بياناتهم الشخصية وتخزينها، بالإضافة إلى قيام المنظمات الدولية والشركات الكبرى العاملة في مجال الذكاء الاصطناعي بوضع مجموعة من المبادئ التوجيهية والإرشادات أو الأطر التنظيمية الملزمة والتي يتعين الالتزام بها عند تطوير أو استخدام أنظمة الذكاء الاصطناعي، وذلك بما يتماشى مع القيم والمبادئ الأخلاقية وبما يضمن تطوير واستخدام التكنولوجيا لخدمة الصالح العام، وتعزيز القيم الإنسانية وحماية حقوق الأفراد، وضمان تنويع الخلفيات الاجتماعية للشخصيات العاملة في مجال تطوير أنظمة الذكاء الاصطناعي، وذلك من خلال اتباع نهج شامل للتوظيف يضمن تمثيل المبرمجين والمطورين لكافة فئات المجتمع.
 
وتطرق التحليل إلى الدور المصري في مواجهة تحديات تقنيات الذكاء الاصطناعي، حيث أكد أنه بالرغم مما يحمله التوسع في استخدام هذه التقنيات من تحديات أخلاقية وإنسانية متزايدة، إلا أن مصر قد لعبت دورًا مهمًّا في صياغة العديد من المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي في منظمات دولية مختلفة مثل منظمة التعاون الاقتصادي والتنمية، ومنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) ومجموعة العشرين، كما تقود مصر فرقًا تعمل على توحيد التوصيات الأخلاقية للذكاء الاصطناعي على المستوى الإقليمي داخل الاتحاد الإفريقي وجامعة الدول العربية.
 
علاوةً على ذلك، كانت مصر أول دولة عربية وإفريقية تلتزم بمبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي المسؤول، كما كانت أولى الدول التي اعتمدت وثيقة اليونسكو بشأن توصيات أخلاقيات الذكاء الاصطناعي، كما أطلقت مصر الاستراتيجية الوطنية للذكاء الاصطناعي في يوليو 2021. 
بالإضافة إلى ذلك، فقد أطلق المجلس الوطني للذكاء الاصطناعي –الذي دشَّنته الحكومة المصرية في نوفمبر 2019- "الميثاق المصري للذكاء الاصطناعي المسؤول" وذلك في أبريل 2023؛ لبلورة رؤية الدولة المصرية للمبادئ التوجيهية المتعلقة بالأطر التنظيمية للاستخدام الأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي في المجتمع المصري، الأمر الذي يساعد في ضمان إدارة وتطوير ونشر أنظمة الذكاء الاصطناعي في الدولة واستخدامها بشكل واعٍ ومسؤول.
ويستهدف الميثاق الوطني للذكاء الاصطناعي المسؤول تفعيل 5 مبادئ رئيسة، هي: البشرية كمقصد، والشفافية، وقابلية التفسير، والعدالة، والمساءلة، والأمن والأمان، وذلك من خلال اتباع نحو 13 مبدأ توجيهيا عاما، تعد بمثابة قواعد شاملة، بالإضافة إلى 16 مبدأ توجيهياً تنفيذياً؛ والتي تنطبق بشكل أساسي على أي جهة تقوم بتطوير أو نشر أو إدارة نظام ذكاء اصطناعي.
 
وأفاد التحليل أن من الأهمية بمكان ملاحظة أن القواعد الأخلاقية والمبادئ الإرشادية الموجهة لأنظمة الذكاء الاصطناعي لا تزال قيد التطوير، لا سيَّما في ظل التقديرات التي تتوقع نمو وتوسع مجال الذكاء الاصطناعي في المستقبل؛ إذ تشير بعض الإحصائيات إلى أنه من المتوقّع أن ينمو حجم سوق الذكاء الاصطناعي بنسبة 120٪ على الأقل على أساس سنوي، وأن تصل القيمة السوقية لمجال الذكاء الاصطناعي على مستوى العالم إلى نحو 1.59 تريليون دولار بحلول عام 2030، وهو ما يفرض المزيد من التحديات الأخلاقية المتعلقة بتزايد الاعتماد المفرط على تقنيات الذكاء الاصطناعي، مما يتطلب وضع أطر ومبادئ توجيهية ملزمة لتحقيق التوازن بين التقدم التكنولوجي من ناحية، والاعتبارات والمبادئ الأخلاقية التي قد تنجم عن استخدام أنظمة الذكاء الاصطناعي من ناحية أخرى، وذلك من أجل تعظيم فوائد وإيجابيات الذكاء الاصطناعي مع الحد من الآثار السلبية المحتملة على الأفراد والمجتمعات.
 
 

Trending Plus

اليوم السابع Trending

الأكثر قراءة

الأهلي يرحب برحيل حسين الشحات وأفشة فى الميركاتو الصيفى

المكسيك تهزم السعودية بثنائية وتصعد لنصف نهائي الكأس الذهبية

وصول أسئلة امتحان مادة اللغة الأجنبية الأولى إلى لجان الثانوية العامة بالجيزة

رسميا.. تحديد أولى مواجهات ربع نهائى كأس العالم للأندية 2025

أدوية مغشوشة تهدد الأرواح.. والداخلية تضبط مصانع الموت الصامت


إنريكى: لا مجال للخطأ أمام إنتر ميامى.. وميسى الأفضل فى التاريخ

"يديعوت أحرونوت": ترامب يريد إنهاء حرب غزة بأقرب وقت

باريس سان جيرمان وإنتر ميامي فى مواجهة نارية بمونديال الأندية

نكونكو يضيف ثانى أهداف تشيلسى أمام بنفيكا فى الدقيقة 109.. فيديو

160 مليار جنيه لدعم السلع التموينية والخبز في موازنة 2025/2026


بصور شهداء فلسطين ورسالة لينا الظاهر.. كايروكى يدعمون أهل غزة من استاد القاهرة

منتخب إنجلترا يتوج بلقب بطل أمم أوروبا للشباب بثلاثية ضد ألمانيا.. فيديو

ميدو: هذا موقفنا من اعتزال شيكابالا.. وتأخر إعلان المدرب يُحسب لنا

شاهد صورة سائق النقل المتسبب فى حادث الطريق الإقليمى ومصرع 19 حالة

مصرع 3 فتيات وشاب فى انقلاب مركب صغير داخل نهر النيل بالمنيا

كيف كشفت النيابة العامة تفاصيل حادث الطريق الإقليمي بالمنوفية؟

حسام حسن يقترب من الانضمام إلى الاتحاد السكندرى بتوصية من سامى

تشكيلات نارية تخوض مباراة بنفيكا ضد تشيلسى فى كأس العالم للأندية 2025

فاكسيرا: تصنيع لقاح الكلب محليا بنسبة 100% لأول مرة فى مصر

مفيدة شيحة تحتفل بزواج ابنتها منة الله عماد وسط حضور كثيف.. فيديو وصور

لا يفوتك


المزيد من Trending Plus
Youm7 Applcation Icons
اليوم السابع اليوم السابع اليوم السابع اليوم السابع اليوم السابع اليوم السابع هواوى