يقول مستشار سياسة الذكاء الاصطناعى العالمي | أخبار التكنولوجيا

تتحرك الذكاء الاصطناعي بوتيرة سريعة ، وتتدافع المنظمات في جميع أنحاء العالم من نشر أحدث في الذكاء الاصطناعي لضمان عدم استبعادها. إذا كان العام الماضي يدور حول الذكاء الاصطناعى التوليدي ، فقد انتقلت المحادثات هذا العام إلى الذكاء الاصطناعي للوكيل ، أو منظمة العفو الدولية التي يمكن أن تساعد البشر في أتمتة مهام محددة. لا يوجد أي توحيد في نشر الذكاء الاصطناعي المتقدم بين المنظمات من جميع الأحجام ؛ ربما يكون هذا بسبب عدم وجود معيار عالمي لتوسيع نطاق الذكاء الاصطناعي ونشره في قطاع المؤسسة.
في مثل هذه الأوقات ، يجب سماع الأصوات الموثوقة وآرائها حول التطورات السريعة في الذكاء الاصطناعي ، والثغرات في التنفيذ ، والتحديات المتعلقة بالحكم. كيلي فوربس ، عضو في مجلس الذكاء الاصطناعى في Qlik ، يعتقد بشدة ذلك عندما تصبح الذكاء الاصطناعي أكثر ذكاءً ، نحتاج إلى أن نكون أكثر ذكاءً أثناء العمل مع الذكاء الاصطناعي. فوربس يشعر بذلك تلعب مجالس الذكاء الاصطناعى التي تقودها الشركات دورًا في تشكيل أفضل الممارسات وضمان الامتثال للوائح التي يتبعها العالم.
على هامش Qlik Connect 2025 في أورلاندو ، Indianexpress.com جلس مع فوربس لفهم التحديات التي تواجهها الشركات في المشهد المتطور من الذكاء الاصطناعي باستمرار. فيما يلي مقتطفات من المحادثة.
بيجين: من عدسة الحوكمة ، ما الذي تعتقد أن المؤسسات تكافح معها عندما يتعلق الأمر بتقويم الذكاء الاصطناعي ، على الرغم من وجود استراتيجياتها المحددة؟
فوربس: أعتقد أن مايك (الرئيس التنفيذي لـ Qlik) قد وضعه بالطريقة الصحيحة في القول بأن لدينا حاليًا منظمة العفو الدولية ، ولكن في الواقع يكون تطبيق التبني صغيرًا جدًا. لذلك لم نصل إلى المستوى الذي نحتاج إلى الوصول إليه. جزء من ذلك هو أن لدينا بعض قيود الذكاء الاصطناعي. في بعض الأحيان يكون فهمًا أعمق لبيانات السياسات أو اللوائح المحلية ، أو قد تكون هناك مشكلات حول البنية التحتية. على المستوى العملي للشركات ، في كثير من الأحيان ، أعتقد أنه مجرد نقص في فهم كيف يمكن لوكالة الذكاء الاصطناعى دعمهم ضمن قدرتها المحلية. لقد أصبحنا الآن أخيرًا في مرحلة يمكن لمعظم الشركات التعرف على الدور الذي سيلعبه الذكاء الاصطناعي ، والآن يكتشفون ما يعنيه ذلك بالفعل في “سياقتي وشركتي وللعمليات”. هذا يستغرق بعض الوقت.
بيجين: بالنسبة لقراءنا ، هل يمكنك تبسيط ماهية مجلس الذكاء الاصطناعى ، والرجوع إلى Qlik ، ما هو بالضبط مجلس الذكاء الاصطناعي؟
فوربس: جمع مجلس الذكاء الاصطناعى أربعة منا مع خبرة وخبرات مختلفة للغاية لتوجيه ودعم Qlik في هذه الرحلة. AI تتطور بسرعة كبيرة ، وتحتاج الحوكمة إلى التكيف مع ذلك. هناك الكثير من الأسئلة حول الحوكمة والبنية التحتية وما يمكن أن تفعله التكنولوجيا ، وكيف يمكنك دعم الشركات بشكل أفضل. يختلف ما قد يحدث هنا في الولايات المتحدة عما قد يحدث في الهند أو في الشرق الأوسط. تمكن مجلس الذكاء الاصطناعى من إظهار القيمة والدعم في هذا التفاعل والرحلة.
تستمر القصة أسفل هذا الإعلان
بيجين: خلال العنوان الرئيسي ، كان هناك تمييز بين Gen AI و Agentic AI. عندما نتحدث عن Agencic AI ، ما نوع الضمانات أو إطار السياسة الذي يجب أن يكون موجودًا للتأكد من أن هذه الأنظمة المستقلة تظل مسؤولة؟
فوربس: في العام الماضي كنا نتحدث عن الذكاء الاصطناعي. نتحدث هذا العام عن Agency AI ؛ ربما في العام المقبل سنتحدث عن التطورات الجديدة. إنها تتحرك بسرعة كبيرة. لكن الضمانات تظل كما هي. ما نراه أكثر مع Agency AI هو أننا نرى المزيد من الاستقلالية الممنوحة لمنظمة العفو الدولية. يتطلب مدخلات إنسانية أقل. في اللحظة التي تقوم بها ، سيتم تشغيل الجهاز بمفرده. علينا أن نتأكد من أنها تعمل بشكل جيد وعدم ارتكاب أخطاء ، وكيف نبقى مسؤولية؟ هناك الكثير من العمليات العملية ، ومعظمها ننفذ. امتلاك إطار عمل ، وجود أدوات تدعم الشركات ، والمستمر من حيث ما ينبغي أن تبدو عليه تلك المعايير والمؤسسات. لقد عقدت اجتماعًا اليوم مع عدد قليل من الزملاء من الفريق ، وكانوا يشرحون كل ما يفعلونه حول تنفيذ عمليات مختلفة في عملهم للتأكد من أن ضمانات الذكاء الاصطناعى تتطور في نفس الوقت الذي تتطور فيه الذكاء الاصطناعي. كان لديك Gen AI و Agentic AI ، ولكن يتم تحديث ضماناتك حاليًا في نفس الوقت أيضًا.
بيجين: أنت (Qlik) تعمل على توسيع نطاق ذكاء الأعمال إلى المنظمات في جميع أنحاء العالم. عندما نتحدث عن ذكاء الأعمال ، هناك أيضًا استخبارات القرار التي كنت تدفعها. كيف يمكن للشركات أن تضمن أن القرارات التي تحركها الذكاء الاصطناعي التي تتخذها هي أخلاقية ونزيهة ويمكن توضيحها؟
فوربس: الخطوة الأولى هي تحديد شكل ذلك. كيف ينبغي أن يكون عملنا وما هي المعايير هنا التي نحاول مقابلتها. أعلم أن Qlik تعمل بنشاط كبير على الحفاظ على التحديثات بالمعايير الدولية ، وكذلك NIST (المعهد الوطني للمعايير والتكنولوجيا) ، وهي الوكالة الحكومية الأمريكية التي تخبرك ، ولديك أطر حول الذكاء الاصطناعي ، وما الذي يجب أن تبدو عليه ، وما هي الأخلاق والمبادئ. يعتني الكثير من العمل الداخلي بهذا ، في محاولة للمحاذاة ، ثم تعليم عملائهم والعمل معهم لتحقيق ذلك. إنه شيء يقومون بتثقيفه باستمرار. في العام الماضي ، كان لدينا لوحة كاملة مع مجلس الذكاء الاصطناعى في الذكاء الاصطناعى المسؤول. تحدثنا كثيرًا عن ما الذي سيمثله الذكاء الاصطناعي من وجهة نظر مسؤولة وما هي الممارسات والعمليات التي نحتاجها إلى وضعها.
تستمر القصة أسفل هذا الإعلان
بيجين: بمعنى أوسع ، عندما نتحدث عن التنظيم والحكم في هذه المرحلة ، فهي مجزأة للغاية لأنه لا يوجد معيار عالمي حتى الآن. كل بلد ، حتى الاتحاد الأوروبي ، لديه طريقة مختلفة للنظر إليها. هل نحن أقرب إلى معيار عالمي موحد في أخلاقيات الذكاء الاصطناعي والحكم؟
فوربس: إنه سؤال جيد جدًا ، وقد ناقشنا ذلك اليوم. ربما تكون الإجابة لا ، ليس بعد ، في الغالب لأننا لا نزال نرى الحكومات تحاول القيام بالأشياء بطرق مختلفة ، لذلك ما زلنا نرى التفتت. والهيئات التي يمكن أن تحدد المعايير لا تزال تعمل على كيفية القيام بذلك بشكل جيد. على الأقل لهذا العام ، من غير المحتمل أن نرى الكثير من ذلك ، على الرغم من أننا رأينا قانون الذكاء الاصطناعى يخرج من أوروبا. ما يحدث هو أن قانون الذكاء الاصطناعي لديه ما يسمى تأثير بروكسل ، وهو كما فعلوا مع لائحة حماية البيانات العامة التي تنظم البيانات. لقد فعلوا ذلك في أوروبا ، لكن له تأثير في كل مكان في جميع أنحاء العالم. في بعض النواحي ، قد تعتقد أن قانون الذكاء الاصطناعي يمكن أن يكون هناك إطار عمل هناك بشكل غير مباشر.
بيجين: الحديث عن تنظيم الذكاء الاصطناعي مقابل الابتكار ، في تجربتك ، ما هو أفضل أفضل ما يمكن أن يدعم صانعي السياسة الابتكار دون ترك المخاطر مع الأنظمة عبر الشقوق؟
فوربس: أعتقد أن هناك نماذج جيدة للبحث عنها دائمًا من قبل الحكومات التي تقوم بذلك بشكل جيد. عندما أرى ما تفعله الحكومات السنغافورية والإمارات العربية المتحدة ، إنها علامة على قيادة جيدة في تقاطع الابتكار والتنظيم. ليس من السهل القيام به لأنك يجب أن توازنه. أنت لا تريد أن تنظم ثم فرض قيود على الابتكار. إنهم يقومون بأشياء مثل صناديق الرمل ، على سبيل المثال ، وطرق إشراك الصناعة في البرامج التي تختبر فيها التكنولوجيا. تعلمك الصناعة وتعلم قبل فرض لوائح صارمة بالفعل. تقوم اليابان أيضًا بالكثير من ذلك. هذه البلدان محسوبة إلى حد كبير لإمكانات الذكاء الاصطناعي ، ولا يريدون المخاطرة بذلك.
تستمر القصة أسفل هذا الإعلان
بيجين: عندما نتحدث عن نشر نموذج الذكاء الاصطناعي فيما يتعلق بالحكم ، ما نوع التحديات التي صادفتها؟ هذه النماذج تأتي مع مجموعة من القضايا مثل التحيز وعدم الدقة الواقعية ؛ في بعض الأحيان تفتقر بيانات التدريب إلى الجودة.
فوربس: تبدأ التحديات بسبب طبيعة الذكاء الاصطناعي الآن. أنت تولد وتخلق الأشياء ، وهناك الكثير من الحكم الذاتي مع ذلك. يمكنك أن تتخيل ، على سبيل المثال ، يمكنهم إنشاء قطعة فنية جديدة تمامًا تعتمد على رسم بيكاسو ، ثم لديك مشاكل في حقوق الطبع والنشر. أو يمكنك طرح سؤال ، ويمكنه الهلوسة تمامًا. لديك تحيزات وقضايا أخرى كذلك. ما هو مطلوب للغاية لمنع ذلك هو الوعي وضمان أن الأشخاص الذين يتفاعلون مع التكنولوجيا لديهم التدريب والفهم اللازم لهذه القيود. عندما خرجت الذكاء الاصطناعى التوليدي لأول مرة ، عملت في مشروع يدعم دول الآسيان ، وجميع دول جنوب شرق آسيا ، حول كيفية تكييف سياساتها ولوائحها مع الذكاء الاصطناعي ، لأن ما كان لديهم من قبل على الذكاء الاصطناعي التقليدي لن يكون على النحو المناسب بعد الآن.
بيجين: الحديث عن الضمانات ، تم تحديد مصطلحات “الإنسان في الحلقة” من قبل التكنولوجيا الكبيرة. هل تعتقد أن الرقابة البشرية اعتبارًا من اليوم تكفي ، أم أن هناك أي حاجة لآلية أكثر صرامة في مكانها؟
فوربس: أعتقد أننا بحاجة إلى مستوى أفضل من التدريب والوعي بالناس في العمل مع الأدوات. لا أعتقد أن غالبية الناس يعرفون بالضبط كيف تعمل الأنظمة ، وبالتالي تصبح محفوفة بالمخاطر إذا تم تطبيق هذه الأنظمة فيما يصنفه قانون الذكاء الاصطناعى على أنه مواقف عالية الخطورة. نحن ندخل تدريجياً في مستوى أكثر نضجًا من القدرة على المراقبة والتحقق عندما تسوء الأمور. لكن نعم ، في نفس الوقت تصبح الذكاء الاصطناعي أكثر ذكاءً ، نحتاج إلى العمل أكثر ذكاءً مع الذكاء الاصطناعي.
تستمر القصة أسفل هذا الإعلان
بيجين: العودة إلى مجلس الذكاء الاصطناعي ، ما هو الدور الذي تلعبه مجالس الذكاء الاصطناعى التي تقودها الشركات مثل لك في تشكيل ممارسات الحوكمة في العالم الحقيقي بالمعنى الأوسع؟
فوربس: أعتقد أنه دور حاسم للغاية الآن يجب أن تجلب الشركات التي تعمل في هذا المجال خبرة خارجية لتوجيه عملها. أسمع الكثير من المستثمرين في القطاع المالي الذين يرغبون في رؤية نوع من التأكيد على أن لديك عمليات أو لديك أشخاص في مكان يوجهونك على طول العملية. يرغب المستثمرون في رؤية الشركات: من لديك في مجلس الإدارة وعلى فريق القيادة؟ هل لديك الأشخاص المناسبين الذين يوجهون ممارسات شركتك أو عملياته؟ هذا هو الدور الذي يمتلكه مجلس الذكاء الاصطناعى هنا ، وهو يتشكل ليكون الممارسة الصحيحة في جميع أنحاء العالم. يمكنك التقاط الكثير عن ذلك من قانون الذكاء الاصطناعى الآن ، مع توصيات تخرج من الحكومات ، وهو أمر ضروري أن يكون لديك الأشخاص المناسبين في المواقف الصحيحة.
س: الآن نرى أن أدوار العمل يتم تحويلها. أي نوع من التدريب عبر التخصصات التي يجب إعطائها الأولوية في هذه المرحلة الزمنية لموازنة هذا التحول السريع في العمل؟
ج: أعتقد أن هناك جانبان لهذا. ستقوم الذكاء الاصطناعي بزيادةنا ، وسوف يجلب مستويات متطرفة من الكفاءة للأشخاص الذين يعرفون كيفية العمل مع الذكاء الاصطناعي جيدًا. بالنسبة لكثير من الأشخاص الذين لا يملكون الوصول أو المهارات اللازمة ، سيصبح الأمر صعبًا للغاية ، وقد نرى بعض عدم المساواة هناك. يصبح السؤال ، كيف نتأكد من أن كل شخص لديه هذا التدريب والتحضير لاستخدامهم والعمل مع الذكاء الاصطناعي؟ نفكر في ذلك في سياق عالمي ، في البلدان أو المناطق النائية التي لا يتمتع فيها الأشخاص بعد الوصول الكامل إلى الإنترنت. كيف يمكننا أن نجلب منظمة العفو الدولية ونتوقع أن تعطل القوى العاملة عندما يكون الواقع هو أن العالم ليس بالفعل في طريق متساوٍ؟ في نفس الوقت الذي نجلب فيه هذه التكنولوجيا ، نحتاج إلى أن نكون أشخاصًا. البلدان التي تقوم بعمل جيد للغاية هي البلدان التي لديها شراكات مع الحكومات. إنهم أشخاص مهارة. هناك الكثير من الوعي التعليمي الذي نراه يحدث في الاقتصادات الرائدة.
تستمر القصة أسفل هذا الإعلان
بيجين: إذا كان عليك التنبؤ ، فما هو السؤال الأخلاقي الكبير التالي الذي ستواجهه صناعة الذكاء الاصطناعى في عام 2026؟
فوربس: سؤال كبير. لن أحاول الإجابة على هذا السؤال. أعتقد أننا سنرى نموًا كبيرًا الآن. سوف يتسارع فقط. من الصعب جدًا عرض في الاتجاه الصحيح تمامًا. كانت هناك بيانات من خبراء الذكاء الاصطناعي حول AGI أننا لسنا بعيدين عن ذلك في غضون بضع سنوات. بعض الخبراء الآخرين يختلفون. علينا أن نلاحظ ونرى. أعتقد أن أي شخص يتحدث عن ذلك على وجه اليقين ربما يكذب.
يحضر المؤلف Qlik Connect 2025 في أورلاندو ، الولايات المتحدة ، بدعوة الشركة.
اكتشاف المزيد من موقع تجاربنا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.