منطقة إعلانية

منطقة إعلانية



منطقة إعلانية





هل يمكن وضع قواعد تنظيمية للذكاء الاصطناعى عالمياً؟


الاتحاد الأوروبى يعد ورقة بيضاء لتنظيم عالم الذكاء الصناعى فى المجالات عالية الخطورة

الورقة تقترح متطلبات تنظيمية إلزامية وطوعية للشركات العاملة فى المجال

نظرًا لاعتماد الذكاء الاصطناعى السريع فى المجالات عالية المخاطر، فضلاً عن القلق العام المتزايد بشأن إساءة استخدام الذكاء الاصطناعى المحتملة، فإن التنظيم بات قريبًا.

فى الواقع، تعمل المفوضية الأوروبية حاليًا على تطوير إطار تنظيمى يمكن أن يكون له تأثير واسع، مثل اللائحة العامة لحماية البيانات، على أى شركة تتطلع إلى القيام بأعمال تجارية فى الاتحاد الأوروبي.

ويتوقع تقرير من المنتدى الاقتصادى العالمى أنه سيكون على الشركات تقديم عملية تدقيق استباقية لمنتجات وخدمات الذكاء الاصطناعي.

وفى فبراير الماضى، أصدرت المفوضية الأوروبية ورقة بيضاء حول الذكاء الاصطناعي، والتى ينظر إليها الخبراء على نطاق واسع على أنها خطوة نحو إطار تنظيمى جديد. استرشدت هذه الرؤية بهدفين أساسيين:

1- تعزيز نهج محوره الإنسان للذكاء الاصطناعي. أى ضمان أن الذكاء الاصطناعى يخدم الأشخاص بشكل أساسى ويزيد من رفاهيتهم.

2- للاستفادة من سوق الأوروبية لنشر نهج الاتحاد الأوروبى فى تنظيم الذكاء الاصطناعى على مستوى العالم.


وحددت الورقة بشكل حاسم أن أى قواعد تنظيمية جديد لن تكون قابلاً للتطبيق إلا فى القطاعات عالية الخطورة (مثل الرعاية الصحية والنقل والطاقة وأجزاء من القطاع العام) حيث «يمكن توقع حدوث مخاطر كبيرة». تنطبق هذه اللوائح أيضًا على تطبيقات معينة للذكاء الاصطناعي، مثل التوظيف وتقنية التعرف على الوجه والتطبيقات المرتبطة بحقوق العمال والمستهلكين.

ويقول المنتدى إنه سيكون لظهور هذا الإطار التنظيمى الرسمى للذكاء الاصطناعى داخل الاتحاد الأوروبى تأثير كبير على الشركات التى توفر أو تشترى أنظمة الذكاء الاصطناعي، فضلاً عن علاقاتها مع الجهات التنظيمية.

يقترح الكتاب الأبيض مجموعة متدرجة من إرشادات الامتثال للذكاء الاصطناعي، بما فى ذلك خطط الامتثال الإلزامية والطوعية.

وستكون هناك متطلبات إلزامية للشركات التى تعمل فى القطاعات «عالية المخاطر» المذكورة وتستخدم تطبيقات الذكاء الاصطناعي.

وتتعلق هذه على وجه التحديد بـ «بيانات التدريب، ومعلومات حفظ السجلات التى سيتم توفيرها حول متانة ودقة تطبيق الذكاء الاصطناعي، والمتطلبات المحددة للإشراف البشرى للتعرف على الوجه».

فى المقابل، قد يكون لدى أولئك الذين يعملون فى القطاعات والتطبيقات منخفضة المخاطر خيار المشاركة فى مخطط طوعى لوضع العلامات للإشارة إلى أن منتجاتهم وخدماتهم التى تدعم الذكاء الاصطناعى جديرة بالثقة.

واكتسبت هذه الإرشادات بالفعل قوة دفع داخل الاتحاد الأوروبي، حيث أيدت 14 دولة عضوًا مؤخرًا ورقة موقف تدعو إلى مثل هذه الحيل للامتثال بالإضافة إلى نهج القانون غير الملزم (مثل التنظيم الذاتي) لتنظيم الذكاء الاصطناعى على نطاق أوسع.

حتى الآن، لا تزال مجالات الغموض فيما يتعلق بالتصنيفات المختلفة قائمة. على سبيل المثال، ستقوم المفوضية الأوروبية بتعيين المشغلين والتطبيقات على أنها إما عالية أو منخفضة المخاطر، وقد تتطور هذه التعيينات لتشمل القطاعات والتطبيقات التى لم يتم اعتبارها «عالية الخطورة» بعد، ولكنها هامشية للذكاء الاصطناعى عالى المخاطر.

لذلك من الحكمة أن تدخل القطاعات التى تعتمد بشكل كبير على الذكاء الاصطناعى فى الامتثال التنظيمى من تلقاء نفسها.

ولم يتم الإعلان عن أى لائحة فى الاتحاد الأوروبى حتى الآن ولا يزال الكثير قيد الإعداد. على سبيل المثال، تظل المكونات الحاسمة لسن الرقابة على الذكاء الاصطناعى غير مطورة أو غير واضحة ؛ على سبيل المثال، لا توجد حتى الآن قائمة نهائية بمتطلبات الامتثال المحددة، أو آلية إنفاذ تشرف على التبنى المنهجى لهذه اللوائح، أو عملية واضحة لتنسيق بروتوكولات الذكاء الاصطناعى بين المفوضية الأوروبية والدول الأعضاء فى الاتحاد الأوروبي.

وخلال خطاب حالة الاتحاد فى 16 سبتمبر الماضى، شددت رئيسة المفوضية الأوروبية، أورسولا فون دير لاين، على الحاجة إلى «مجموعة من القواعد التى تضع الناس فى قلب «الذكاء الاصطناعى» وأكدت أن المفوضية ستقترح قانوناً لهذا الغرض العام المقبل.

كيف يمكن للشركات الاستعداد الآن؟

يغذى هذا الالتزام بالإجراءات التنظيمية الشعور بأن أنظمة الذكاء الاصطناعى المختلفة قد تم نشرها دون فحصها بشكل صحيح. وأصبح من الواضح أن التطبيق الناشئ للذكاء الاصطناعى على عدد متزايد باستمرار من قرارات الحياة فى المجالات عالية المخاطر (مثل التوظيف والطب والتعليم) يجب ألا يُسمح له بإعادة إنتاج أو تعزيز أو توسيع الفوارق القائمة. ويقول المنتدى إن هذه بالتأكيد مخاوف مشروعة، وهى مخاوف يمكن وينبغى للشركات معالجتها بشكل استباقى من خلال «عملية تدقيق» سليمة.

ويضيف أنه بالنسبة لمنتجات وحلول الذكاء الاصطناعي، يجب أن تتمحور هذه العملية حول أربع خطوات رئيسية:

1- توثيق نسب منتجات / خدمات وسلوكيات الذكاء الاصطناعى أثناء التشغيل. ويجب أن تتضمن هذه الوثائق معلومات حول الأهداف أو الأغراض ومجموعات بيانات التدريب ونتائج اختبار السلامة والإنصاف وخصائص الأداء وسيناريوهات الاستخدام. فى السنوات الأخيرة، أصبح هذا أولوية على مستوى الصناعة، وقد أنشأ معظم الممثلين الرئيسيين نماذج وثائقية قابلة للتطبيق. علاوة على ذلك، يجب مراقبة سلوكيات أنظمة الذكاء الاصطناعى بنشاط أثناء التشغيل. هنا، يجب على الشركات أن تلجأ إلى مجموعة الأدبيات المتزايدة حول الأدوات المختلفة المتاحة للمساعدة فى فهم وتفسير التنبؤات التى قدمتها نماذج التعلم الآلي.

2- تطوير تفسير داخلى لمتطلبات الورقة البيضاء المقترحة للمفوضية الأوروبية: من غير المحتمل أن يشرح الإطار التنظيمى المعتمد بشكل كامل كيفية وضع المتطلبات موضع التنفيذ، لأن هذه المتطلبات ستختلف بشكل كبير اعتمادًا على سياق الاستخدام المحدد.

على سبيل المثال، إذا كان القانون يتطلب من الشركات استخدام مجموعات بيانات تمثيلية بشكل كافٍ لمنع التمييز المحتمل، فلن يحدد التكوين الدقيق لمجموعة بيانات معينة، لذلك، سيحتاج الفريق متعدد الوظائف إلى تطوير تفسير داخلى لهذه المتطلبات. يمكن القيام بذلك عن طريق طرح الأسئلة ذات الصلة.

على سبيل المثال، فى تطبيق التوظيف المدعوم بالذكاء الاصطناعي، يمكن للمرء أن يفكر فى السؤال التالي: كيف يؤثر التكوين الديموغرافى لمجموعات بيانات التدريب على توصيات النظام؟

3- تقييم مدى امتثال منتجات أو خدمات الذكاء الاصطناعى لمتطلبات الورقة البيضاء المقترحة من المفوضية الأوروبية: يجب على فريق مستقل متعدد الوظائف، يتألف من مسؤولى المخاطر والامتثال ومديرى المنتجات وعلماء البيانات، إجراء تدقيق داخلى لتقييم الامتثال للمفوضية الأوروبية المتطلبات المستندة إلى التفسير الداخلى المحدد لمتطلبات المفوضية الأوروبية.

4- رفع النتائج إلى أصحاب المصلحة المعنيين: ويجب أن تكون تقارير التدقيق هذه متاحة عند الطلب من أجل: المنظمون، والمشترون، والموردون ومنظمات المجتمع المدني.

وتتمثل إحدى طرق ضمان الانتقال السلس إلى الامتثال للوائح الجديدة فى تعيين موظفين محددين لضمان المطابقة. على وجه التحديد، من المرجح أن يلعب مديرو المخاطر والامتثال دورًا رئيسيًا فى هذه العملية، وبالنظر إلى برامج التدقيق المناسبة لأنظمة الذكاء الاصطناعى (كما هو موضح هنا)، يمكن أتمتة الكثير من هذه العملية.

لمتابعة الاخبار اولا بأول اضغط للاشتراك فى النسخة الورقية او الالكترونية من جريدة البورصة

منطقة إعلانية

نرشح لك


اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

https://www.alborsanews.com/2020/10/26/1393675