اليونسكو: الذكاء الاصطناعي يحتاج إلى قواعد أخلاقية أقوى

اليونسكو: الذكاء الاصطناعي يحتاج إلى قواعد أخلاقية أقوى

دعت منظمة اليونسكو بلدان العالم إلى تطبيق توصيتها الصادرة في عام 2021 لتنظيم الذكاء الاصطناعي، بعدما دعا إيلون ماسك ومئات الخبراء إلى وقف تطوير هذه البرامج لمدة ستة أشهر محذرين من "مخاطر كبيرة على البشرية".

وقالت المديرة العامة لليونسكو أودري أزولاي في بيان "يحتاج العالم إلى قواعد أخلاقية أقوى للذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في وقتنا الحاضر.

لقد وضعت توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي الإطار التقنيني المناسب".

وكانت الدول الأعضاء الـ 193 في هذه المنظمة التابعة للأمم المتحدة أقرت بالإجماع في نوفمبر 2021 "إطار العمل المعياري العالمي الأول للاستخدام الأخلاقي للذكاء الاصطناعي"، وهي "خريطة طريق للبلدان، تصف طريقة الإفادة القصوى من فوائد الذكاء الاصطناعي مع تقليل المخاطر الناجمة عن هذه التكنولوجيا"، بحسب منظمة اليونسكو.

وصدر هذا النص بعد جهود استمرت ثلاث سنوات، وهو يفصّل الإجراءات التي يتعين القيام بها، ولا سيما إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته، أو "ضمان الأمن الكامل للبيانات الشخصية والحساسة" أو حتى تثقيف الجماهير حول موضوعها.

وأكدت أزولاي أن "الوقت حان لتنفيذ الاستراتيجيات والأنظمة على الصعيد الوطني، وعلينا أن نحيل الأقوال إلى أفعال"، معتبرة أن "من الواضح أنّ التنظيم الذاتي للقطاع غير كاف لتجنّب هذه الآفات الأخلاقية".

وأشارت المنظمة الأممية إلى أن أكثر من 40 بلدًا "من جميع مناطق العالم" تعمل مع اليونسكو "لتطوير ضوابط وموازين الذكاء الاصطناعي على المستوى الوطني، استنادًا إلى التوصية".

ودعت اليونسكو جميع البلدان للانضمام إلى الحركة التي تقودها لتطوير ذكاء اصطناعي "مقامه الأخلاق"، مشيرة إلى أن "تقريرًا مرحليًا سيُقدّم خلال منتدى اليونسكو العالمي لأخلاقيات الذكاء الاصطناعي الذي يُقام في سلوفينيا في ديسمبر 2023".

وقف تطوير أبحاث الذكاء الاصطناعيوقد وقّع مئات الخبراء العالميين، بينهم إيلون ماسك رئيس تويتر ومؤسس شركتي سبايس اكس وتيسلا، والمؤسس المشارك لشركة "آبل" ستيف فوزنياك، الأربعاء دعوة للتوقف لمدة ستة أشهر عن تطوير أبحاث الذكاء الاصطناعي.

وفي العريضة المنشورة عبر موقع "فيوتشر اوف لايف دوت اورج، طالب الخبراء بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع "المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج".

وسأل هؤلاء "هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والأكاذيب؟ (.

.

.

) هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيين غير منتخبين".

مصر      |      المصدر: البوابة نيوز    (منذ: 12 أشهر | 16 قراءة)
.