رئيس مجلسى الإدارة والتحرير
محمد الباز
رئيس مجلسى الإدارة والتحرير
محمد الباز

دعوات متزايدة لتنظيم قطاع الذكاء الاصطناعى منعًا للتجاوزات

الذكاء الاصطناعي
الذكاء الاصطناعي

برزت الحاجة أخيراً في أوروبا وفي أنحاء أخرى من العالم لتنظيم قطاع الذكاء الاصطناعي الآخذ في الازدهار والنمو، توخياً لحماية بيانات المستخدمين ولمنع أي تجاوزات بدأت تظهر بوادرها.

أراد مستخدمو برنامج "ريبليكا" الأميركي للذكاء الاصطناعي، تبادل الأحاديث مع تجسيداتهم الافتراضية «أفاتار» المطورة على قياسهم، لإجراء حوارات رومانسية أو مثيرة، لكن البعض يشتكون أخيراً من تلقي رسائل وصور جريئة لدرجة جعلتهم يضعونها في مصاف التحرش الجنسي.

قبل أيام، أبدت الوكالة الإيطالية لحماية البيانات قلقها من تأثير هذه البرمجية على الأشخاص الأكثر ضعفاً، ومنعت "ريبليكا" من استخدام بيانات الإيطاليين الشخصية، معتبرة أنه ينتهك القانون الأوروبي لحماية البيانات، ولم يرد "ريبليكا" على أسئلة وكالة «فرانس برس» في هذا الموضوع.

وتُظهر القضية أن هذا التشريع الأوروبي الذي فُرضت بموجبه غرامات بمليارات الدولارات، قد يصبح أيضاً عدو تقنيات الذكاء الاصطناعي المولّدة للنصوص.

وقد دُرب برنامج "ريبليكا" على نسخة من نموذج روبوت المحادثة "جي بي تي 3" المطور من شركة "أوبن إيه آي"، المطورة لبرنامج "شات جي بي تي" القادر على تحليل كمية هائلة من البيانات لتوليد نصوص تقدم إجابات متماسكة عن أسئلة المستخدمين.

وتعد هذه التكنولوجيا بثورة في عمليات البحث على الإنترنت وفي استخدامات أخرى يُعمل على تطويرها.

غير أن الخبراء يحذرون من أنها تحمل أيضاً في طياتها مخاطر تتطلب قيوداً تشريعية يصعب فرضها حالياً.

في الوقت الحالي، يحتل الاتحاد الأوروبي موقعا مركزياً في جهود تنظيم هذه التقنيات الجديدة على صعيد روبوتات الدردشة القائمة على الذكاء الاصطناعي. وقد ينتهي العمل على مشروع قانون "إيه آي أكت" نهاية العام الحالي أو مطلع 2024، ليبدأ تطبيقه بعد بضع سنوات.

ويقول برتران باييس، الذي يدير الخلية الجديدة المتخصصة في الذكاء الاصطناعي في الهيئة الفرنسية الناظمة للقطاع، لوكالة «فرانس برس»: "نحن في خضمّ مرحلة اكتشاف المشكلات التي قد تطرحها تقنيات الذكاء الاصطناعي هذه: وقد رأينا أن (شات جي بي تي) يمكن أن يُستخدم لتطوير رسائل تصيد احتيالي مقنعة للغاية أو لتجهيل قاعدة بيانات وإعادة رسم هوية شخص ما".

ويلفت القانونيون أيضاً إلى صعوبة فهم وضبط "العلبة السوداء" التي يستند عليها منطق تقنيات الذكاء الاصطناعية هذه.

ويوضح المحامي الألماني دنيس هيليمان، المتخصص في القطاع، لوكالة «فرانس برس»: "سنشهد توتراً قوياً في المواجهة بين القانون الأوروبي بشأن حماية البيانات ونماذج للذكاء الاصطناعي التوليدي".

ويعود ذلك إلى وجود خوارزميات مختلفة بالكاملة عن تلك التي تقترح فيديوهات للمشاهدة على تيك توك أو عن نتائج عمليات البحث عبر محرك غوغل، على سبيل المثال.

ويؤكد المحامي أنه "لا مشروع قانون (إيه آي أكت) ولا القانون الأوروبي بشأن حماية البيانات الشخصية يمكنهما حل المشكلات التي ستطرحها هذه النماذج للذكاء الاصطناعي التوليدي".

ويلفت هيليمان إلى ضرورة إعادة النظر في التشريعات "في ضوء النماذج التي يمكن لتقنيات الذكاء الاصطناعي التوليدي أن تفعله حقاً"، خصوصاً لناحية المسائل الأخلاقية والقانونية الواسعة التي ستُطرح مع تحسن التكنولوجيا.

ويُتوقع طرح "جي بي تي 4"، النموذج الأحدث من "أوبن إيه آي"، قريباً مع طريقة عمل أقرب إلى السلوك البشري.

غير أن هذه البرمجيات للذكاء الاصطناعي لا تزال تقترف أخطاء فادحة على صعيد دقة المعلومات، وقد تُظهر انحيازاً في عملها، ما يفسر طلبات التنظيم المتزايدة.

لكن هذا ليس رأي جيكوب متشانغاما مؤلف كتاب بعنوان "حرية التعبير: من سقراط إلى الشبكات الاجتماعية"، إذ يقول: "حتى لو لم يكن لروبوتات المحادثة الحق في حرية التعبير، علينا أن نكون حذرين إزاء إمكان منع الحكومات للتعبير بالبرمجيات الاصطناعية من دون أي عوائق".

ويؤيد الكاتب اعتماد نظام أكثر مرونة في التعامل مع هذه التقنيات. ويقول: "من وجهة نظر تشريعية، الخيار الأكثر أماناً حتى اللحظة يبقى فرض موجبات للشفافية لتحديد ما إذا كنا نتحادث مع كائن بشري أو مع الذكاء الاصطناعي".

هذا الرأي يشاطره دنيس هيليمان الذي يقول: "إذا لم نضبط ذلك، سندخل عالماً لن نستطيع فيه التمييز بين ما صنعه البشر وما نتج عن الذكاء الاصطناعي"، و"هذا الأمر سيُحدث تغييراً عميقاً علينا كمجتمع".