Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تجارب المال والأعمال

تشارك الشركات الأمريكية والخبراء الصينيون في دبلوماسية سرية بشأن سلامة الذكاء الاصطناعي

[ad_1]

ابق على اطلاع بالتحديثات المجانية

وانخرطت شركات الذكاء الاصطناعي الأمريكية OpenAI وAnthropic وCohere في دبلوماسية سرية مع خبراء الذكاء الاصطناعي الصينيين، وسط مخاوف مشتركة بشأن الكيفية التي قد تنشر بها التكنولوجيا القوية معلومات مضللة وتهديد التماسك الاجتماعي.

وفقًا للعديد من الأشخاص ذوي المعرفة المباشرة، عُقد اجتماعان في جنيف في شهري يوليو وأكتوبر من العام الماضي حضرهما علماء وخبراء سياسة من مجموعات الذكاء الاصطناعي الأمريكية، إلى جانب ممثلين عن جامعة تسينغهوا وغيرها من المؤسسات الصينية المدعومة من الدولة.

وقال الحاضرون إن المحادثات سمحت للجانبين بمناقشة المخاطر الناجمة عن التكنولوجيا الناشئة وتشجيع الاستثمارات في أبحاث سلامة الذكاء الاصطناعي. وأضافوا أن الهدف النهائي هو إيجاد مسار علمي للأمام لتطوير تكنولوجيا الذكاء الاصطناعي الأكثر تطورًا بأمان.

قال أحد الأشخاص الحاضرين في المحادثات: “لا توجد طريقة بالنسبة لنا لوضع معايير دولية حول سلامة الذكاء الاصطناعي ومواءمته دون الاتفاق بين هذه المجموعة من الجهات الفاعلة”. “وإذا وافقوا، فسيكون من الأسهل بكثير جلب الآخرين معهم”.

تعد المحادثات التي لم يتم الإبلاغ عنها سابقًا علامة نادرة على التعاون الصيني الأمريكي وسط سباق على التفوق بين القوتين الرئيسيتين في مجال التقنيات المتطورة مثل الذكاء الاصطناعي والحوسبة الكمومية. في الوقت الحالي، منعت واشنطن الصادرات الأمريكية من الرقائق عالية الأداء التي تصنعها شركات مثل Nvidia والمطلوبة لتطوير برامج الذكاء الاصطناعي المتطورة.

لكن موضوع سلامة الذكاء الاصطناعي أصبح نقطة اهتمام مشترك بين مطوري التكنولوجيا في كلا البلدين، نظرا للمخاطر الوجودية المحتملة على البشرية.

تم ترتيب اجتماعات جنيف بمعرفة البيت الأبيض وكذلك مسؤولي الحكومتين البريطانية والصينية، وفقًا لمفاوض حاضر رفض الكشف عن اسمه.

وقالت السفارة الصينية في المملكة المتحدة: “تدعم الصين الجهود المبذولة لمناقشة حوكمة الذكاء الاصطناعي وتطوير الأطر والقواعد والمعايير اللازمة على أساس توافق واسع النطاق”.

“إن الصين مستعدة لإجراء الاتصالات والتبادل والتعاون العملي مع مختلف الأطراف بشأن حوكمة الذكاء الاصطناعي العالمية، وضمان تطور الذكاء الاصطناعي بطريقة تؤدي إلى تقدم الحضارة الإنسانية.”

وعقدت هذه المحادثات مجموعة شيخ، وهي منظمة وساطة خاصة تعمل على تسهيل الحوار بين الجهات الفاعلة الرئيسية في مناطق الصراع، وخاصة في الشرق الأوسط.

“لقد رأينا فرصة للجمع بين الجهات الفاعلة الأمريكية والصينية الرئيسية العاملة في مجال الذكاء الاصطناعي. وقال سلمان شيخ، الرئيس التنفيذي للمجموعة: “كان هدفنا الرئيسي هو التأكيد على نقاط الضعف والمخاطر والفرص المصاحبة للنشر الواسع لنماذج الذكاء الاصطناعي المشتركة في جميع أنحاء العالم”.

“إن إدراك هذه الحقيقة يمكن، في رأينا، أن يصبح حجر الأساس للعمل العلمي التعاوني، مما يؤدي في النهاية إلى معايير عالمية حول سلامة نماذج الذكاء الاصطناعي.”

وقال المشاركون في المحادثات إن شركات الذكاء الاصطناعي الصينية مثل ByteDance وTencent وBaidu لم تشارك؛ وبينما اطلعت شركة Google DeepMind على تفاصيل المناقشات، إلا أنها لم تحضر.

خلال المحادثات، ناقش خبراء الذكاء الاصطناعي من الجانبين مجالات المشاركة في التعاون الفني، بالإضافة إلى مقترحات سياسية أكثر واقعية غذت المناقشات التي دارت حول اجتماع مجلس الأمن التابع للأمم المتحدة حول الذكاء الاصطناعي في يوليو 2023، وقمة الذكاء الاصطناعي في المملكة المتحدة في نوفمبر الماضي. سنة.

وقد أدى نجاح الاجتماعات إلى وضع خطط للمناقشات المستقبلية التي ستركز على المقترحات العلمية والتقنية حول كيفية مواءمة أنظمة الذكاء الاصطناعي مع القواعد القانونية والمعايير والقيم الخاصة بكل مجتمع، وفقًا لما ذكره المفاوض الحاضر.

كانت هناك دعوات متزايدة للتعاون بين القوى الرائدة لمعالجة صعود الذكاء الاصطناعي.

في تشرين الثاني (نوفمبر)، انضم العلماء الصينيون الذين يعملون في مجال الذكاء الاصطناعي إلى الأكاديميين الغربيين للدعوة إلى فرض ضوابط أكثر صرامة على التكنولوجيا، ووقعوا بيانا حذر من أن الذكاء الاصطناعي المتقدم سيشكل “خطرا وجوديا على البشرية” في العقود المقبلة.

ودعت المجموعة، التي ضمت أندرو ياو، أحد أبرز علماء الكمبيوتر في الصين، إلى إنشاء هيئة تنظيمية دولية، والتسجيل الإلزامي ومراجعة أنظمة الذكاء الاصطناعي المتقدمة، وإدراج إجراءات “إيقاف التشغيل” الفورية، وإلزام المطورين بإنفاق الأموال. 30 في المائة من ميزانيتهم ​​البحثية تتعلق بسلامة الذكاء الاصطناعي.

ورفضت OpenAI وAnthropic وCohere التعليق على مشاركتهم. ولم تستجب جامعة تسينغهوا على الفور لطلب التعليق.

[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى