الجمعة 22 نوفمبر 2024
More forecasts: Wetter 4 wochen
رئيس التحرير
محمود المملوك
أخبار
حوادث
رياضة
فن
سياسة
اقتصاد
محافظات

معلومات الوزراء: 35% من المؤسسات العالمية تستخدم تقنيات الذكاء الاصطناعي

 الذكاء الاصطناعي
سياسة
الذكاء الاصطناعي - أرشيفية
الأربعاء 05/يوليو/2023 - 11:31 ص

أصدر مركز المعلومات ودعم اتخاذ القرار بـ مجلس الوزراء، تحليلًا جديدًا تناول خلاله موضوع أخلاقيات الذكاء الاصطناعي والتحديات التي يواجهها وسبل التصدي لها.

أخلاقيات الذكاء الاصطناعي والتحديات التي يواجهها

وأشار التحليل إلى تزايد الاعتماد العالمي على تقنيات الذكاء الاصطناعي في شتى مجالات الحياة، كالرعاية الصحية، والتعليم، وأنظمة التمويل والصناعة والتجارة؛ حيث تشير التقديرات إلى أن 35% من المؤسسات العالمية تستخدم تقنيات الذكاء الاصطناعي، فضلًا عن تأكيد 83% من الشركات في مختلف المجالات على أن إدراج تقنيات الذكاء الاصطناعي ضمن استراتيجيتها المستقبلية أصبح يمثِّل أولوية قصوى، الأمر الذي يثير المخاوف بشأن التداعيات المحتملة للاعتماد المفرط على هذه التقنيات، لا سيَّما التحديات الأخلاقية الخاصة بالحفاظ على خصوصية الأفراد وقيم الحرية والابتكار وعدم التمييز.

ولفت مركز المعلومات إلى أن أخلاقيات الذكاء الاصطناعي تُعرف بأنها مجموعة المبادئ والإرشادات والمعايير التوجيهية التي يتعين على مطوري الذكاء الاصطناعي ومستخدميه اتباعها في تصميم واستخدام التقنيات، وتهدف هذه القواعد إلى ضمان المسؤولية الاجتماعية والأخلاقية عند تصميم واستخدام الذكاء الاصطناعي، بحيث يتوافق مع الأسس الأخلاقية، ومبادئ احترام حقوق الإنسان.

وأوضح التحليل المبادئ التي تتضمنها القواعد الأخلاقية للذكاء الاصطناعي وهي على النحو التالي:

- الحيادية وعدم التحيز: حيث يتعيَّن تصميم أنظمة الذكاء الاصطناعي بطريقة تضمن أن تكون النتائج والقرارات التي تقدمها حيادية وغير منحازة، وبحيث تتجنب التمييز القائم على العرق أو الدين أو الجنس أو العمر أو الحالة الاجتماعية والاقتصادية، والتعامل بشكل مُنصف ومتساوٍ مع جميع الأفراد، وذلك لعدم مفاقمة التحيزات الثقافية والمجتمعية القائمة.

- الشفافية والقابلية للتفسير: ويعني ذلك ضرورة تمتع أنظمة الذكاء الاصطناعي بالشفافية من خلال تقديمها للمبررات والتفسيرات المتعلقة بالقرارات والإجراءات التي تتخذها، مما يُسهم في بناء المصداقية، هذا بالإضافة إلى تمكين المستخدمين من فهم آليات عمل أنظمة الذكاء الاصطناعي بما يشمل البيانات والخوارزميات المتضمَّنة في عمليات صنع القرار، والنتائج التي يُقدِّمها.

- احترام الخصوصية وحماية البيانات: إذ يجب تنفيذ تدابير محكمة وصارمة تضمن عدم انتهاك الخصوصية وحماية البيانات الشخصية لمستخدمي أنظمة الذكاء الاصطناعي، وذلك من خلال استخدام البيانات الشخصية فقط من أجل الأغراض المحددة بشرط موافقة المستخدم وإخفاء هويته.

- المسؤولية والمساءلة: حيث يجب على مطوري أنظمة الذكاء الاصطناعي والجهات المعنية تحمل المسؤولية والخضوع للمساءلة عن آثار ومخرجات تلك الأنظمة، بالإضافة إلى وضع آليات لمواجهة وتصحيح الأضرار المحتملة التي قد تنجم عن الأنظمة الرقمية التي يتم ابتكارها.

- مراعاة الأمن والسلامة: وذلك من خلال اتخاذ التدابير اللازمة للحد من المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، ويتضمن ذلك الحيلولة دون إمكانية استخدامها بشكل ضار أو إجرامي، وكذلك حمايتها من الاختراق والوصول غير المصرح به لبيانات ومعلومات المستخدمين.

وأضاف المركز في تحليله أن الاعتماد على تقنيات الذكاء الاصطناعي يخلق جملة من التحديات الأخلاقية والإنسانية، والتي يمكن التطرق إلى أبرزها فيما يلي:
- التأثير على الخصوصية: فرغم أن تقنيات الذكاء الاصطناعي تستهدف خدمة البشر وتيسير سبل حياتهم في المقام الأول، وذلك مع التأكيد على الحفاظ على سرية بياناتهم من خلال إجراءات الأتمتة، فإنه ثبت مع تطبيق هذه التقنيات أن تقويض الخصوصية وانتهاك سرية البيانات سمة غالبة؛ حيث إن تزايد الاعتماد على كاميرات المراقبة، واستخدام الهواتف الذكية، والإنترنت جعل من السهل جمع البيانات عن الأشخاص ومراقبة تحركاتهم، بما يفضي في نهاية المطاف إلى انتهاك خصوصياتهم وحرياتهم المدنية، ولا تقتصر المخاوف المتعلقة بانتهاك الخصوصية على مجرد مراقبة تحركات الأشخاص، وإنما في الوصول غير المصرح به لبياناتهم ومعلوماتهم الشخصية وسوء استخدامها.

- الذكاء الاصطناعي يفاقم التحيز: فالقول بأن الذكاء الاصطناعي أكثر حيادية من البشر أمر غير صحيح؛ نظرًا لأن البشر -الذين لا يخلون من التحيز- هم من يقومون ببرمجة أنظمة الذكاء الاصطناعي وتقنياته، ومن ثمّ، فإنهم ينقلون تحيزاتهم إلى تلك الأنظمة.

-مفاقمة عدم المساواة في توزيع الدخل: مع التوقعات التي بدأت تتحقق في الواقع بشأن تراجع الاعتماد على القوى العاملة البشرية مقابل الاعتماد على تقنيات الذكاء الاصطناعي لإنجاز الوظائف والمهام، فمن المرجَّح ارتفاع معدلات البطالة، وما يصاحبها من ارتفاع معدلات الفقر، في مقابل تزايد الأرباح التي يحصل عليها أصحاب الشركات، لا سيَّما مع توفير الأموال المخصصة لبند أجور العاملين، بما يفاقم عدم المساواة في توزيع الدخول بين الأفراد.

- تراجع الابتكار لدى البشر: فاستمرار إحلال تقنيات الذكاء الاصطناعي محل البشر في العديد من الوظائف والمهام قد يؤدي إلى تراجع إسهامات البشر، ومن ثمّ، تقويض مهارات الابتكار لديهم، فضلًا عن تفاقم الشعور السلبي لدى العديد منهم بشأن جدوى مهامهم ودورهم في ظل المهام المعقدة التي تؤديها أنظمة الذكاء الاصطناعي.

- مخاوف متزايدة في القطاع الصحي: فرغم التقدم الذي يشهده قطاع الصحة في ظل اعتماده المتزايد على أنظمة الذكاء الاصطناعي، فإن هناك جُملة من المخاوف بشأن عدم دقة الأنظمة في بعض الحالات، والتي تنطوي على عواقب وخيمة في قطاع الصحة؛ نظرًا لأنها قد تعرض بعض الأشخاص لخطر فقدان حياتهم، فضلًا عن أن الاعتماد على الروبوتات الطبيّة لا يلبي حاجة المرضى النفسية للشعور بالطمأنينة، والتي توفرها الأطقم الطبية البشرية.

- تهديد الحريات: حيث تُعد تقنية التعرف على الوجه سلاحًا ذا حدين، فعلى الرغم من أنها تيسر عملية ضبط المجرمين، والمطلوبين للعدالة، فضلًا عن إقدام بعض الدول على استخدامها إبان جائحة كورونا للتأكد من امتثال المواطنين للإجراءات الاحترازية والحفاظ على الصحة العامة، فإنها يمكن استخدامها بما يهدد قيم الحرية والديمقراطية.

 



وأبرز التحليل آليات مواجهة التحديات الأخلاقية للذكاء الاصطناعي ويتمثل أبرزها فيما يلي؛ التوعية والتثقيف بأخلاقيات الذكاء الاصطناعي؛ وذلك من خلال تعزيز الوعي والمعرفة لدى الأفراد والمؤسسات فيما يخص مخاطر وتحديات وحدود الذكاء الاصطناعي وتثقيف المستخدمين والعملاء حول كيفية حماية بياناتهم الشخصية وتخزينها، بالإضافة إلى قيام المنظمات الدولية والشركات الكبرى العاملة في مجال الذكاء الاصطناعي بوضع مجموعة من المبادئ التوجيهية والإرشادات أو الأطر التنظيمية الملزمة والتي يتعين الالتزام بها عند تطوير أو استخدام أنظمة الذكاء الاصطناعي، وذلك بما يتماشى مع القيم والمبادئ الأخلاقية وبما يضمن تطوير واستخدام التكنولوجيا لخدمة الصالح العام، وتعزيز القيم الإنسانية وحماية حقوق الأفراد، وضمان تنويع الخلفيات الاجتماعية للشخصيات العاملة في مجال تطوير أنظمة الذكاء الاصطناعي، وذلك من خلال اتباع نهج شامل للتوظيف يضمن تمثيل المبرمجين والمطورين لكافة فئات المجتمع.

وتطرق التحليل إلى الدور المصري في مواجهة تحديات تقنيات الذكاء الاصطناعي، حيث أكد أنه بالرغم مما يحمله التوسع في استخدام هذه التقنيات من تحديات أخلاقية وإنسانية متزايدة، إلا أن مصر قد لعبت دورًا مهمًّا في صياغة العديد من المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي في منظمات دولية مختلفة مثل منظمة التعاون الاقتصادي والتنمية، ومنظمة الأمم المتحدة للتربية والعلم والثقافة اليونسكو ومجموعة العشرين، كما تقود مصر فرقًا تعمل على توحيد التوصيات الأخلاقية للذكاء الاصطناعي على المستوى الإقليمي داخل الاتحاد الإفريقي وجامعة الدول العربية.

تابع مواقعنا