تتصادم أكبر شركات تكنولوجيا الذكاء الاصطناعي في العالم مع المملكة المتحدة بشأن اختبارات السلامة
ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
تضغط أكبر شركات الذكاء الاصطناعي في العالم على حكومة المملكة المتحدة لتسريع اختبارات السلامة لأنظمة الذكاء الاصطناعي، في صراع حول رغبة بريطانيا في القيام بدور رائد في تنظيم التكنولوجيا سريعة التطور.
تعد OpenAI وGoogle DeepMind وMicrosoft وMeta من بين مجموعات التكنولوجيا التي وقعت التزامات طوعية في نوفمبر لفتح أحدث نماذج الذكاء الاصطناعي التوليدية للمراجعة من قبل معهد سلامة الذكاء الاصطناعي الجديد في بريطانيا. وفي ذلك الوقت، تعهدت الشركات بأنها ستقوم بتعديل نماذجها إذا اكتشف المعهد عيوبًا في التكنولوجيا.
وفقًا للعديد من الأشخاص المطلعين على العملية، تسعى شركات الذكاء الاصطناعي إلى الحصول على توضيح بشأن الاختبارات التي تجريها AISI، والمدة التي ستستغرقها وما هي عملية التعليقات في حالة اكتشاف أي مخاطر.
قال أشخاص مقربون من شركات التكنولوجيا إنهم غير ملزمين قانونًا بتغيير أو تأخير إصدارات منتجاتهم بناءً على نتائج اختبارات السلامة التي أجرتها AISI.
ومع ذلك، قال إيان هوغارث، رئيس AISI، في منشور على LinkedIn يوم الاثنين: “اتفقت الشركات على أنه يجب على الحكومات اختبار نماذجها قبل إصدارها: معهد سلامة الذكاء الاصطناعي يضع ذلك موضع التنفيذ”.
وقالت حكومة المملكة المتحدة لصحيفة فايننشال تايمز: “إن اختبار النماذج يجري بالفعل بالتعاون الوثيق مع المطورين”. “نحن نرحب بالوصول المستمر إلى نماذج الذكاء الاصطناعي الأكثر قدرة لاختبار ما قبل النشر – وهي إحدى الاتفاقيات الرئيسية التي وقعتها الشركات في قمة سلامة الذكاء الاصطناعي،” التي عقدت في نوفمبر في بلتشلي بارك.
“سنشارك النتائج مع المطورين حسب الاقتضاء. ومع ذلك، عند وجود مخاطر، نتوقع منهم اتخاذ أي إجراء ذي صلة قبل الإطلاق.
يكشف النزاع مع شركات التكنولوجيا عن القيود المفروضة على الاعتماد على الاتفاقيات الطوعية لتحديد معايير التطور التكنولوجي سريع الخطى. وفي يوم الثلاثاء، أوضحت الحكومة الحاجة إلى “متطلبات ملزمة مستقبلية” لكبار مطوري الذكاء الاصطناعي للتأكد من أنهم مسؤولون عن الحفاظ على أمان الأنظمة.
يعد معهد سلامة الذكاء الاصطناعي المدعوم من الحكومة أمرًا أساسيًا لطموح رئيس الوزراء ريشي سوناك للمملكة المتحدة في أن يكون لها دور مركزي في معالجة المخاطر الوجودية الناجمة عن صعود الذكاء الاصطناعي، مثل استخدام التكنولوجيا في إتلاف الهجمات السيبرانية أو تصميم الأسلحة البيولوجية.
وفقًا للأشخاص الذين لديهم معرفة مباشرة بالأمر، بدأ AISI في اختبار نماذج الذكاء الاصطناعي الحالية ولديه إمكانية الوصول إلى النماذج التي لم يتم إصدارها بعد، بما في ذلك Gemini Ultra من Google.
وقال أحد الأشخاص إن الاختبارات ركزت على المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي، بما في ذلك الأمن السيبراني، بالاعتماد على الخبرة من المركز الوطني للأمن السيبراني داخل مقر الاتصالات الحكومية (GCHQ).
تُظهر العقود الحكومية المنشورة مؤخرًا أن AISI أنفق مليون جنيه إسترليني لشراء قدرات لاختبار “كسر الحماية”، مما يعني صياغة مطالبات لإقناع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لتجاوز حواجز الحماية الخاصة بها، و”التصيد الاحتيالي”، عندما يتم استهداف الأفراد والمنظمات، عادةً عبر البريد الإلكتروني لسرقة معلومات حساسة أو نشر برامج ضارة.
ويتعلق عقد آخر بتطوير “الأتمتة الهندسية العكسية”، وهي العملية التي يتم من خلالها تقسيم كود المصدر بطريقة آلية لتحديد وظائفه وبنيته وتصميمه.
وقالت Google DeepMind: “يتمتع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة بإمكانية الوصول إلى بعض النماذج الأكثر قدرة لدينا لأغراض البحث والسلامة لبناء الخبرة والقدرة على المدى الطويل”.
“نحن نقدر تعاوننا مع المعهد ونعمل معًا بنشاط لبناء تقييمات أكثر قوة لنماذج الذكاء الاصطناعي، بالإضافة إلى السعي إلى التوصل إلى توافق في الآراء بشأن أفضل الممارسات مع تقدم القطاع.”
ورفضت OpenAI وMeta التعليق.