الأمم المتحدة: 55 ألف عائلة تأثرت بالأمطار والعواصف الأخيرة في غزة ارتفاع حصيلة العدوان على قطاع غزة إلى 70,669 شهيدا و171,165 مصابا محافظة القدس تحذر من تداعيات قانون إسرائيلي جديد يجرم التدخل في الممارسات الدينية بالأماكن العامة وزير الداخلية يبحث احتياجات المؤسسات الحكومية بقلقيلية أبو هولي يبحث مع أمين عام منظمة التعاون الإسلامي الأوضاع الفلسطينية 3 إصابات برصاص الاحتلال في خان يونس ومدينة غزة أوكسفام تنظم “حوار الصمود والتنمية” بمشاركة وطنية ودولية: مساحة للتفكير المشترك في متغيرات الواقع الفلسطيني وإطار الممكن الأمم المتحدة وأكثر من 200 منظمة إغاثة تحذر من انهيار العمليات الإنسانية بغزة مؤسسة التمكين الاقتصادي تؤكد التزامها الكامل والثابت بتطبيق القرار بقانون بشأن نظام الحماية والرعاية الاجتماعية الموحّد إسرائيل تجري مفاوضات لصفقة غاز مع سوريا استشهاد مواطن برصاص الاحتلال شرق خان يونس كـاتـس وسموتريتش يُقران خصم تكاليف ازالة نفايات الضفة من أموال المقاصة اللجنة التحضيرية العليا لانتخابات المجلس الوطني تعقد اجتماعها ال11ـ في رام الله سلطة النقد تستكمل التعديلات على مشروع قانون خفض استخدام النقد إصابة 10 من شرطة الاحتلال وتحطيم دوريات خلال احتجاجات للمستوطنين "الحريديم"

إفصاح "غوغل" عن سلامة أحدث نماذجها للذكاء الاصطناعي محل قلق

نشرت شركة غوغل يوم الخميس، بعد أسابيع من إطلاق أقوى نموذج ذكاء اصطناعي لها حتى الآن، وهو "Gemini 2.5 Pro"، تقريرًا فنيًا يُظهر نتائج تقييمات السلامة الداخلية، لكن خبراء ينتابهم القلق حول ما جاء في التقرير.

وقال الخبراء إن تقرير السلامة يفتقر إلى تفاصيل، مما يُصعّب تحديد المخاطر التي قد يُشكّلها نموذج "Gemini 2.5 Pro".

وتُقدّم التقارير الفنية معلومات مفيدة -وإن كانت غير مُرضية أحيانًا- لا تُعلن عنها الشركات دائمًا على نطاق واسع حول نماذجها للذكاء الاصطناعي، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".

وبشكل عام، يرى مجتمع الذكاء الاصطناعي هذه التقارير جهودًا حسنة النية لدعم الأبحاث المستقلة وتقييمات السلامة.

وتتّبع "غوغل" نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها في مجال الذكاء الاصطناعي، حيث لا تُنشر التقارير الفنية إلا بعد أن تعتبر النموذج قد تجاوز المرحلة "التجريبية"، ولا تُدرج الشركة أيضًا نتائج جميع تقييمات "القدرات الخطيرة" في هذه التقارير؛ بل تُخصّصها لتدقيق منفصل.

ومع ذلك، أعرب عدة خبراء، تحدثوا إلى موقع "TechCrunch"، عن خيبة أملهم بسببب قلة التفاصيل في التقرير الخاص بنموذج "Gemini 2.5 Pro"، وأشاروا إلى أنه لا يذكر إطار السلامة "Frontier Safety Framework" -المعروفة اختصارًا بـ"FSF"- من "غوغل".

وقدمت "غوغل" إطار"FSF" العام الماضي، ووصفته بأنه جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تُسبب "ضررًا جسيمًا".

آراء الخبراء

قال بيتر وايلدفورد، المؤسس المشارك لمؤسسة "Institute for AI Policy and Strategy" البحثية: "هذا (التقرير) ضؤل للغاية، ويحتوي على معلومات أقل ما يكون، وصدر بعد أسابيع من إتاحة النموذج للجمهور".

وأضاف: "من المستحيل التحقق مما إذا كانت غوغول تفي بالتزاماتها العامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها".

وقال توماس وودسايد، الشريك المؤسس لمشروع "Secure AI"، إنه على الرغم من سعادته بإصدار "غوغل" تقرير عن "Gemini 2.5 Pro"، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار وودسايد إلى أن آخر مرة نشرت فيها "غوغل" نتائج اختبارات القدرات الخطيرة كان في يونيو 2024، لنموذج أُعلن عنه في فبراير من العام نفسه.

ولم تُصدر "غوغل" تقريرًا عن نموذج "Gemini 2.5 Flash"، وهو نموذج أصغر وأكثر كفاءة أعلنت عنه الشركة الأسبوع الماضي، مما لا يبعث على الثقة كثيرًا. وقال متحدث باسم الشركة، لموقع "TechCrunch "، إن تقريرًا عن النموذج "سيصدُر قريبًا".

اتهامات تتعلق بالشفافية

ربما كانت "غوغل" من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج، لكنها ليست الوحيدة التي اتُهمت مؤخرًا بتقصيرها في الشفافية.

وأصدرت شركة ميتا تقييمًا مشابهًا من حيث قلة التفاصيل بشأن السلامة لنماذجها مفتوحة المصدر الجديدة "Llama 4"، واختارت "OpenAI" عدم نشر أي تقرير لسلسلة "GPT-4.1".

وتُثقل كاهل "غوغل" ضمانات قدمتها الشركة العملاقة للجهات التنظيمية للحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها. وقبل عامين، أبلغت "غوغل" الحكومة الأميركية بأنها ستنشر علنًا تقارير السلامة نماذج الذكاء الاصطناعي العامة و"المهمة". وتبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى، متعهدةً "بتوفير الشفافية العامة" حول منتجات الذكاء الاصطناعي.

وصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، اتجاه نشر التقارير الغامضة وبوتيرة متقطعة بأنه "سباق نحو القاع" في مجال سلامة الذكاء الاصطناعي.

وقال: "إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبارات السلامة قبل الإطلاق من أشهر إلى أيام، فإن هذا التوثيق الضئيل لأهم نموذج ذكاء اصطناعي من غوغل يروي قصة مثيرة للقلق عن سباق نحو القاع في ما يتعلق بسلامة الذكاء الاصطناعي وشفافيته، مع تسارع الشركات إلى طرح نماذجها في السوق".