يقول أحد كبار الباحثين المغادرين إن شركة OpenAI تضع “المنتجات اللامعة” على حساب السلامة
افتح ملخص المحرر مجانًا
رولا خلف، محررة الفايننشال تايمز، تختار قصصها المفضلة في هذه النشرة الأسبوعية.
ترك كبار قادة السلامة في شركة OpenAI الشركة هذا الأسبوع بعد أن وصل الخلاف حول ما إذا كان ينبغي إعطاء الأولوية “للمنتجات اللامعة” أو السلامة إلى “نقطة الانهيار”، كما يقول أحد الباحثين المغادرين.
قال جان ليك، الذي قاد جهود OpenAI لتوجيه أدوات الذكاء الاصطناعي فائقة القوة والتحكم فيها، إنه استقال يوم الخميس بعد خلاف مع رؤسائه حول مقدار الوقت والموارد التي تضعها الشركة الناشئة في تلك الجهود.
وكتب لايكي في منشور على موقع التواصل الاجتماعي X يوم الجمعة: “على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها أمام المنتجات اللامعة”.
لقد كانت شركة OpenAI هي المرشح الأوفر حظًا في سباق شرس لبناء نماذج أكثر قوة، حيث تتنافس مع المنافسين بما في ذلك Google وMeta وAnthropic لدفع حدود تكنولوجيا الذكاء الاصطناعي.
وقد جمعت الشركة مليارات الدولارات – بما في ذلك 13 مليار دولار من مايكروسوفت – لبناء نماذج الذكاء الاصطناعي التي يمكنها تفسير النصوص والكلام والصور ويمكنها إظهار القدرات المنطقية. وقد أثارت وتيرة هذه التطورات المخاوف بشأن كل شيء، بدءًا من انتشار المعلومات المضللة إلى المخاطر الوجودية في حالة “خروج أدوات الذكاء الاصطناعي عن مسارها الصحيح”.
غادر Leike، أحد الباحثين الأكثر شهرة في OpenAI، إلى جانب إيليا سوتسكيفر، المؤسس المشارك للشركة والقائد المشارك لـ “فريق المحاذاة الفائقة” الذي يركز على السلامة، والذي أعلن استقالته في وقت سابق من هذا الأسبوع.
وهذا في الواقع يؤدي إلى حل الفريق في OpenAI الذي يركز بشكل واضح على ضمان تطوير التكنولوجيا بشكل آمن. لقد كشفت أيضًا عن توتر متزايد في قلب الشركة بين الاستفادة من الريادة المبكرة في الذكاء الاصطناعي والالتزام بمهمتها الأساسية المتمثلة في ضمان أن الذكاء الاصطناعي الفائق القوة “يفيد البشرية جمعاء”.
وكتب لايكي: “نحن بحاجة ماسة إلى معرفة كيفية توجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”. “لقد انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث. ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.
كتب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، على موقع X أنه “من المحزن للغاية أن نرى ذلك [Leike] يترك. إنه على حق، لدينا الكثير لنفعله؛ نحن ملتزمون بالقيام بذلك”.
كانت المخاوف بشأن السلامة أيضًا عاملاً في الدراما التي حدثت في مجلس الإدارة في شهر نوفمبر في OpenAI، والتي تم خلالها طرد ألتمان من قبل المديرين – بما في ذلك سوتسكيفر – ليعود بعد أربعة أيام. قبل إقالته، اشتبك ألتمان مع عضو مجلس الإدارة آنذاك هيلين تونر، التي قارنت نهج OpenAI فيما يتعلق بالسلامة مع نهج منافستها Anthropic بطريقة شعر ألتمان أنها غير مواتية لشركته.
أطلقت شركة OpenAI فريقها للمحاذاة الفائقة العام الماضي، قائلة إنه مصمم لمعالجة المخاوف من أن الآلات فائقة الذكاء “قد تؤدي إلى إضعاف البشرية أو حتى انقراض الإنسان”. وفي ذلك الوقت، اقترحت الشركة أن الذكاء الاصطناعي يمكن أن يتفوق على البشر في غضون عقد من الزمن. وفي الأشهر التي تلت ذلك، كانت الشركة الناشئة وراء عدد من التطورات الرئيسية.
والتزمت الشركة بتخصيص 20 في المائة من مواردها الحاسوبية لدعم عمل الفريق لضمان توافق الذكاء الاصطناعي مع المصالح البشرية حتى عندما أصبح أكثر قوة بشكل كبير.
لكن لايكي قال إنه لم يتم إيلاء الاهتمام الكافي للسلامة والتأثير المجتمعي للنماذج الأكثر قوة: “من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”.
وقال ليك إن فريق المحاذاة الفائقة ناضل من أجل الوصول إلى موارد الحوسبة التي تم استيعابها في تطوير نماذج جديدة للمستهلكين مثل GPT-4o، أحدث نموذج من OpenAI تم إصداره يوم الاثنين.
“على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. وكتب: “في بعض الأحيان كنا نكافح من أجل الحوسبة وكان الأمر يزداد صعوبة وأصعب لإنجاز هذا البحث المهم”.
اكتشاف المزيد من موقع تجاربنا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.