شركات التكنولوجيا الرائدة توقع على تعهدات سلامة الذكاء الاصطناعي
ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
أعلنت حكومتا المملكة المتحدة وكوريا الجنوبية أن شركات الذكاء الاصطناعي الرائدة وقعت على جولة جديدة من الالتزامات الطوعية بشأن سلامة الذكاء الاصطناعي.
وستقوم الشركات، التي تشمل عمالقة التكنولوجيا أمازون وجوجل وميتا ومايكروسوفت بالإضافة إلى شركة OpenAI بقيادة سام ألتمان، وشركة xAI التابعة لإيلون ماسك، والمطور الصيني Zhipu AI، بنشر أطر عمل تحدد كيفية قياس مخاطر نماذج الذكاء الاصطناعي “الحدودية” الخاصة بها.
وقالت الحكومتان قبل افتتاح قمة عالمية للذكاء الاصطناعي في سيول يوم الثلاثاء إن المجموعتين التزمتا “بعدم تطوير أو نشر نموذج على الإطلاق” إذا لم يكن من الممكن تخفيف المخاطر الشديدة.
يعتمد هذا الإعلان على ما يسمى بإعلان بلتشلي الذي تم التصريح به في قمة سلامة الذكاء الاصطناعي الافتتاحية التي استضافها رئيس وزراء المملكة المتحدة ريشي سوناك في نوفمبر.
وقال سوناك في بيان: “تضمن هذه الالتزامات أن توفر شركات الذكاء الاصطناعي الرائدة في العالم الشفافية والمساءلة بشأن خططها لتطوير ذكاء اصطناعي آمن”. “إنها تشكل سابقة للمعايير العالمية بشأن سلامة الذكاء الاصطناعي والتي ستطلق العنان لفوائد هذه التكنولوجيا التحويلية.”
ووفقاً لبيان يوضح الخطوط العريضة للاتفاقية، ستقوم شركات الذكاء الاصطناعي “بتقييم المخاطر التي تشكلها نماذجها أو أنظمتها الحدودية… . . بما في ذلك قبل نشر هذا النموذج أو النظام، وحسب الاقتضاء، قبل وأثناء التدريب.
وستحدد الشركات أيضًا “العتبات التي تعتبر عندها المخاطر الشديدة التي يفرضها نموذج أو نظام، ما لم يتم تخفيفها بشكل مناسب، غير محتملة” وكيف سيتم تنفيذ هذه التخفيفات.
وقالت آنا ماكانجو، نائبة الرئيس للشؤون العالمية في OpenAI: “إن مجال سلامة الذكاء الاصطناعي يتطور بسرعة، ويسعدنا بشكل خاص أن نؤيد تركيز الالتزامات على تحسين الأساليب جنبًا إلى جنب مع العلم”.
“نحن ملتزمون بالتعاون مع مختبرات الأبحاث والشركات والحكومات الأخرى لضمان أن الذكاء الاصطناعي آمن ويفيد البشرية جمعاء.”
ويعكس إعلان الثلاثاء “الالتزامات الطوعية” التي تم التعهد بها في البيت الأبيض في يوليو من العام الماضي من قبل أمازون، وأنثروبك، وجوجل، وإنفلكشن إيه آي، وميتا، ومايكروسوفت، وأوبن إيه آي “للمساعدة في التحرك نحو تطوير آمن ومأمون وشفاف لتكنولوجيا الذكاء الاصطناعي”.
ومع ذلك، لا يزال من غير الواضح كيف يمكن محاسبة الشركات إذا فشلت في الوفاء بالتزاماتها.
وجاء في بيان يوم الثلاثاء أن الشركات الـ 16 “ستوفر الشفافية العامة” بشأن تنفيذ تعهداتها، “إلا بقدر ما يؤدي ذلك إلى زيادة المخاطر أو الكشف عن معلومات تجارية حساسة إلى درجة لا تتناسب مع المنفعة المجتمعية”.
وفي حديثها في سيول قبل اجتماع افتراضي للقادة مساء الثلاثاء، قالت وزيرة العلوم البريطانية ميشيل دونيلان لصحيفة فايننشال تايمز إن الاتفاقيات الطوعية التي تم التوصل إليها في بلتشلي كانت ناجحة.
وقال دونيلان: “لذلك، نعتقد أن هذه الاتفاقيات ستستمر مرة أخرى في دفع الأرباح”.
وأضافت: “لكن الأمر لا يتعلق فقط بما يمكن للشركات أن تفعله، بل يتعلق أيضًا بما يمكن أن تفعله البلدان أيضًا”. وأكد دونيلان أن الحكومة الصينية ستكون ممثلة في الاجتماعات التي ستعقد في اليوم الثاني للقمة يوم الأربعاء.
وقال دان هندريكس، مستشار السلامة في شركة XAI، إن الالتزامات الطوعية ستساعد في “وضع الأساس لتنظيم محلي ملموس”.
لكن دونيلان كرر موقف المملكة المتحدة بأنه من السابق لأوانه النظر في تشريعات لفرض سلامة الذكاء الاصطناعي.
وقالت: “نحن بحاجة إلى التعامل بشكل أفضل مع المخاطر”، مشيرة إلى أن حكومة المملكة المتحدة ستقدم ما يصل إلى 8.5 مليون جنيه إسترليني في شكل منح لدراسة المخاطر المرتبطة بالذكاء الاصطناعي مثل التزييف العميق والهجمات الإلكترونية.
وأضافت أنه إذا كانت حكومة المملكة المتحدة قد شرعت في إصدار تشريع بشأن هذه القضية في العام الماضي، “فمن المحتمل أن يكون قد عفا عليه الزمن بحلول وقت صدوره”.