كريتر نت – متابعات
منذ إصدار شركة “أوبن أي.آي” تطبيق تشات جي.بي.تي السنة الماضية، انتشر استخدام أدوات الذكاء الاصطناعي التوليدي الذي يستجيب للأوامر البسيطة الخاصة بنص أو صورة أو فيديو استناداً إلى نماذجه اللغوية الكبيرة، وغالباً بمستوى مخيف من المهارة، لذلك يعمل الاتحاد الأوروبي على وضع قواعد عمل النماذج القوية للذكاء الاصطناعي التوليدي.
ويعمل الاتحاد الأوروبي على دراسة نهج يتكون من 3 مستويات لتنظيم نماذج وأنظمة الذكاء الاصطناعي التوليدي، بحسب مقترح اطلعت عليه بلومبرغ يأتي ضمن جهود غير مسبوقة للسيطرة على التكنولوجيا سريعة التقدم.
ويوشك الاتحاد الأوروبي أن يصبح أول الحكومات التي تضع قواعد إلزامية لعمل الذكاء الاصطناعي. ووفقاً للتشريع المقترح المعروف باسم قانون الذكاء الاصطناعي، ينبغي أن تخضع الأنظمة التي تتنبأ بالجريمة أو تصنف طلبات العمل لتقييم المخاطر، من بين متطلبات أخرى.
ويريد المفاوضون الانتهاء من وضع التشريع خلال الاجتماع المقبل المقرر في 25 أكتوبر الجاري، وذلك بهدف إصداره مع نهاية السنة.
وبموجب القواعد المقترحة، ستشمل الفئة الأولى جميع نماذج الأساس، وسيكون المستوى الثاني خاصاً بالأنظمة ذات “القدرة العالية” بحسب مقدار قوة الحوسبة المستخدمة لتدريب نماذجها اللغوية الكبيرة، والخوارزميات التي تستخدم مجموعات بيانات ضخمة لتطوير قدرات الذكاء الاصطناعي. وبحسب المقترح، يمكن للنماذج “تجاوز القدرات التكنولوجية الحالية وقد لا تُفهم بطريقة كاملة”.
مكتب الذكاء الاصطناعي الجديد سيشرف على القواعد الإضافية للذكاء الاصطناعي للأغراض العامة واسعة النطاق ونماذج الأساس ذات القدرة العالية
وستشمل الفئة الثالثة المعروفة باسم أنظمة الذكاء الاصطناعي للأغراض العامة واسعة النطاق أدوات الذكاء الاصطناعي الأكثر انتشاراً وستُقاس بعدد المستخدمين الإجمالي.
وما يزال الاتحاد الأوروبي يتصدى لعدد من القضايا المهمة المتعلقة بطريقة التعامل مع التكنولوجيا، بما فيها أسلوب تنظيم الذكاء الاصطناعي التوليدي تحديداً وما إذا كان سيحظر تقنية مسح الوجه وسط الحشود أثناء البث الحي.
وقد تعرضت خطط البرلمان والمجلس الأوروبي لانتقادات تشير إلى أن الحكومات ربما تعطل قدرة الشركات الأصغر على التنافس مع عمالقة قطاع التكنولوجيا.
وأيد ممثلون من مؤسسات الاتحاد الأوروبي الثلاث عموماً تبني نهج متدرج خلال اجتماع في وقت سابق من الشهر الحالي، لكن الخبراء التقنيين توصلوا إلى اقتراح أكثر واقعية.
وبناء على وثيقة 16 أكتوبر، بدأت الأفكار تتبلور حالياً، رغم أنها قد تتغير مع بدء المفاوضات.
ومن المقرر أن تخضع شركات تطوير الذكاء الاصطناعي لشروط الشفافية قبل طرح أي نموذج بالسوق، إذ سيتوجب عليها توثيق النموذج وعملية تدريبه، بما فيها نتائج جهود “الفريق الأحمر” الداخلية، حيث يحاول الخبراء المستقلون دفع النماذج إلى القيام بسلوك سيء، كما سيجري أيضاً تقييم يستند إلى بروتوكولات قياسية واحدة.
وستحتاج الشركات بعد طرح النموذج في بالسوق إلى توفير معلومات للشركات المستخدمة للتكنولوجيا وتمكينها من اختبار النماذج الأساسية.
الاتحاد الأوروبي ما يزال يتصدى لعدد من القضايا المهمة المتعلقة بطريقة التعامل مع التكنولوجيا، بما فيها أسلوب تنظيم الذكاء الاصطناعي التوليدي تحديداً
وستكون الشركات ملزمة بتضمين ملخص “مفصل بما يكفي” للمحتوى الذي استخدمته لتطوير نماذجها وطريقة إدارتها لقضايا حقوق النشر، بما فيها ضمان إمكانية انسحاب أصحاب الحقوق من استخدام محتواهم لتدريب نماذج الذكاء الاصطناعي. وينبغي على الشركات أيضاً التأكد من إمكانية التمييز بين محتوى الذكاء الاصطناعي والمواد الأخرى.
واقترح المفاوضون تعريف نموذج الأساس على أنه النظام الذي بمقدوره “القيام بمجموعة واسعة من المهام المتمايزة بكفاءة”.
وستلتزم الشركات التي تنتج هذا المستوى من التكنولوجيا بقواعد أشد صرامة قبل طرحها في السوق، كما سيتعين على النماذج الخضوع لعمليات “الفريق الأحمر” بطريقة منتظمة من قبل خبراء خارجيين سيتم التدقيق فيهم من قبل مكتب للذكاء الاصطناعي أنشأه الاتحاد الأوروبي حديثا، وسترسل نتائج الاختبارات إلى المكتب.
وسيتوجب على الشركات أيضاً إدخال أنظمة للمساعدة في اكتشاف المخاطر داخل المنظومة. وبعد طرح النماذج في السوق، سيكون هناك مدققون من قبل الاتحاد الأوروبي مستقلون وسيقوم الباحثون بتطبيق ضوابط الامتثال للمعايير، بما فيها التحقق مما إذا كانت الشركات ملتزمة بقواعد الشفافية.
ويدرس المفاوضون أيضاً إنشاء منتدى للشركات لمناقشة أفضل الممارسات ومدونة سلوك طوعية من المقرر أن تصدرها المفوضية الأوروبية.
وستُصنف نماذج الأساس ذات القدرة العالية استناداً إلى قوة الحوسبة اللازمة لتدريبها، باستخدام مقياس يعرف باسم “فلوبس”، أو عمليات فاصلة الكسور العشرية في الثانية. وسيحدد الحد الأدنى الدقيق من قبل المفوضية في مرحلة لاحقة على أن يُحدَّث تبعاً للحاجة إلى ذلك.
شروط تقييم المخاطر
وتتاح أمام الشركات إمكانية الطعن على التقييم. وفي المقابل، يمكن للمفوضية أن تعتبر نموذجاً ما أنه عالي القدرة حتى لو لم يستوف الحد الأدنى بعد الدراسة. ويدرس المفاوضون أيضاً استخدام “التأثير المحتمل” للنموذج -استناداً إلى عدد تطبيقات الذكاء الاصطناعي عالية المخاطر القائمة عليه- باعتباره وسيلة لتصنيف التكنولوجيا.
وينبغي للمنظومات أيضاً أن تخضع لاختبار “الفريق الأحمر” من قبل خبراء خارجيين للكشف عن نقاط الضعف، وسترسل النتائج إلى مكتب الذكاء الاصطناعي التابع للمفوضية. وسيتوجب على الشركات أيضاً إدخال نظام تقييم المخاطر والحد من شدتها.
وسيعتبر الاتحاد الأوروبي أي نظام يضم 10 آلاف مستخدم تجاري مسجل أو 45 مليون مستخدم نهائي مسجل منظومة ذكاء اصطناعي لأغراض عامة واسعة النطاق. وستحدد اللجنة لاحقاً طريقة احتساب أعداد المستخدمين.
ويمكن للشركات أن تتقدم بطلب استئناف على اعتبارها في وضع نظام ذكاء اصطناعي للأغراض العامة واسعة النطاق، وعلى نفس المنوال، يستطيع الاتحاد الأوروبي أن يجعل أنظمة أو نماذج أخرى تلتزم بالقواعد الإضافية، حتى لو لم تبلغ الحدود الدنيا ولكن يمكن أن “تنجم عنها مخاطر”.
وتوجد حاجة إلى مناقشات أكثر لتحديد مسارات الحماية لضمان عدم إنشاء محتوى غير قانوني وضار بواسطة كافة أنظمة الذكاء الاصطناعي للأغراض العامة وأنظمة الذكاء الاصطناعي ذات القدرة العالية.
ومن المقرر أن يشرف مكتب الذكاء الاصطناعي الجديد على القواعد الإضافية للذكاء الاصطناعي للأغراض العامة واسعة النطاق ونماذج الأساس ذات القدرة العالية.
وبحسب الوثيقة، يمكن للمكتب طلب الوثائق وتنظيم اختبارات الامتثال وإنشاء سجل لمختبري عمل الفرق الحمراء الذين فُحصوا، وإجراء التحقيقات. ويستطيع المكتب وقف أحد النماذج باعتباره “إجراءً أخيراً بعد استنفاد الوسائل الأخرى”.
والمكتب سيكون “مستقلاً بذاته” أثناء استضافة المفوضية له، ويمكن للاتحاد الأوروبي الحصول على أموال لتوظيف أشخاص للعمل بالمكتب باستخدام رسوم من شركات الذكاء الاصطناعي للأغراض العامة واسعة النطاق ونماذج الأساس ذات القدرة العالية.