رئيس مجلسى الإدارة والتحرير
محمد الباز
رئيس مجلسى الإدارة والتحرير
محمد الباز

ثاني استقالة في "أوبن إيه آي" اعتراضًا على نهج الشركة في مجال السلامة

أوبن إيه آي - صورة
أوبن إيه آي - صورة أرشيفية

قال أحد كبار الموظفين السابقين في شركة أوبن إيه آي (Open AI) إن الشركة التي تقف وراء ChatGPT تعطي الأولوية "للمنتجات اللامعة" على السلامة، وكشف عن استقالته بعد أن وصل الخلاف حول الأهداف الرئيسية إلى "نقطة الانهيار".

وكان جان لايكي باحثًا رئيسيًا في مجال السلامة في OpenAI كرئيس مشارك لقسم المحاذاة الفائقة، مما يضمن التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية. 

وتأتي استقالة لايكي قبل قمة الذكاء الاصطناعي العالمية في سيول الأسبوع المقبل، حيث سيناقش السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا الرقابة على التكنولوجيا.

كما تأتي بعد أيام من إطلاق الشركة التي يقع مقرها في سان فرانسيسكو أحدث طراز للذكاء الاصطناعي ChatGPT-4o.

ويعني رحيله أن إثنين من كبار الشخصيات في مجال السلامة في OpenAI قد غادرا هذا الأسبوع بعد استقالة إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI وزميله الرئيس المشارك لشركة Superalignment.

قام لايكي بتفصيل أسباب رحيله في منشور له عبر منصة "إكس" أمس الجمعة، حيث قال: "إن ثقافة السلامة أصبحت ذات أولوية أقل".

وكتب: "على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة".

وتأسست OpenAI بهدف ضمان أن الذكاء الاصطناعي العام، والذي تصفه بأنه "أنظمة الذكاء الاصطناعي الأكثر ذكاءً بشكل عام من البشر"، يفيد البشرية جمعاء. 

الخلافات حول قضايا السلامة وصلت لنقطة الانهيار

وفي منشوراته على "إكس"، قال لايكي: إنه كان يختلف مع قيادة OpenAI حول أولويات الشركة لبعض الوقت، لكن هذه المواجهة "وصلت أخيرًا إلى نقطة الانهيار".

وقال: "إن  OpenAI، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، يجب أن تستثمر المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج".

وأضاف: "من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك"، مردفًا: أن الأمر أصبح "أصعب فأصعب" بالنسبة لفريقه لإجراء أبحاثه.

وتابع: "إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته. تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء"، مشددُا أن OpenAI "يجب أن تصبح شركة AGI للسلامة أولًا".

جاء تحذير لايكي في الوقت الذي أصدرت فيه لجنة من خبراء الذكاء الاصطناعي الدوليين تقريرًا افتتاحيًا حول سلامة الذكاء الاصطناعي، والذي ذكر أن هناك خلافًا حول احتمالية تهرب أنظمة الذكاء الاصطناعي القوية من السيطرة البشرية، حسب الجارديان.

ومع ذلك، حذرت من أن المنظمين يمكن أن يتخلفوا عن التقدم السريع في التكنولوجيا، محذرين من "التفاوت المحتمل بين وتيرة التقدم التكنولوجي ووتيرة الاستجابة التنظيمية".