فتوح: نبش الاحتلال أحد القبور في جنين جريمة مروعة وانتهاك للقانون الدولي مستوطنون يقيمون بؤرة جديدة على أراضي ديراستيا شمال غرب سلفيت "الصحة العالمية": خطر تفشّي فيروس هانتا محدود جدا مستوطنون يهاجمون منازل المواطنين جنوب نابلس مستوطنون يهاجمون منازل المواطنين جنوب نابلس الاحتلال يقتحم مخيم الجلزون شهداء وجرحى جراء مجزرة للاحتلال في بلدة السكسكية جنوب لبنان مرشح لرئاسة فرنسا: "إسرائيل" الأخطر في المنطقة ونتنياهو يقود حرب إبادة جيش الاحتلال: إصابة ضابط وجنديين وآلية عسكرية بمسيّرات حزب الله مستوطنون يهاجمون دير جرير شرق رام الله والاحتلال يعتقل مواطنيْن الاحتلال يواصل خروقاته في غزة: شهيد وإصابة في جباليا.. و850 شهيدًا منذ وقف إطلاق النار قوات الاحتلال تقتحم البيرة وتحتجز 3 شبان قوات الاحتلال تقتحم قاعة أفراح غرب بيت لحم إصابات بالاختناق في بيت أمر شمال الخليل بريطانيا تعلن إرسال مدمرة للشرق الأوسط في “مهمة محتملة” بمضيق هرمز الاحتلال يقتحم قرية أبو فلاح شمال شرق رام الله لبنان: 4 شهداء في غارات للاحتلال على عدة بلدات قرعة كأس آسيا 2027: منتخبنا في المجموعة الأولى إلى جانب السعودية والكويت وعُمان آلاف المتظاهرين في برلين يطالبون بوقف الحرب على غزة إعلام عبري: إسرائيل تواصل البحث عن وسائل للتعامل مع مسيرات “حزب الله”

إفصاح "غوغل" عن سلامة أحدث نماذجها للذكاء الاصطناعي محل قلق

نشرت شركة غوغل يوم الخميس، بعد أسابيع من إطلاق أقوى نموذج ذكاء اصطناعي لها حتى الآن، وهو "Gemini 2.5 Pro"، تقريرًا فنيًا يُظهر نتائج تقييمات السلامة الداخلية، لكن خبراء ينتابهم القلق حول ما جاء في التقرير.

وقال الخبراء إن تقرير السلامة يفتقر إلى تفاصيل، مما يُصعّب تحديد المخاطر التي قد يُشكّلها نموذج "Gemini 2.5 Pro".

وتُقدّم التقارير الفنية معلومات مفيدة -وإن كانت غير مُرضية أحيانًا- لا تُعلن عنها الشركات دائمًا على نطاق واسع حول نماذجها للذكاء الاصطناعي، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".

وبشكل عام، يرى مجتمع الذكاء الاصطناعي هذه التقارير جهودًا حسنة النية لدعم الأبحاث المستقلة وتقييمات السلامة.

وتتّبع "غوغل" نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها في مجال الذكاء الاصطناعي، حيث لا تُنشر التقارير الفنية إلا بعد أن تعتبر النموذج قد تجاوز المرحلة "التجريبية"، ولا تُدرج الشركة أيضًا نتائج جميع تقييمات "القدرات الخطيرة" في هذه التقارير؛ بل تُخصّصها لتدقيق منفصل.

ومع ذلك، أعرب عدة خبراء، تحدثوا إلى موقع "TechCrunch"، عن خيبة أملهم بسببب قلة التفاصيل في التقرير الخاص بنموذج "Gemini 2.5 Pro"، وأشاروا إلى أنه لا يذكر إطار السلامة "Frontier Safety Framework" -المعروفة اختصارًا بـ"FSF"- من "غوغل".

وقدمت "غوغل" إطار"FSF" العام الماضي، ووصفته بأنه جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تُسبب "ضررًا جسيمًا".

آراء الخبراء

قال بيتر وايلدفورد، المؤسس المشارك لمؤسسة "Institute for AI Policy and Strategy" البحثية: "هذا (التقرير) ضؤل للغاية، ويحتوي على معلومات أقل ما يكون، وصدر بعد أسابيع من إتاحة النموذج للجمهور".

وأضاف: "من المستحيل التحقق مما إذا كانت غوغول تفي بالتزاماتها العامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها".

وقال توماس وودسايد، الشريك المؤسس لمشروع "Secure AI"، إنه على الرغم من سعادته بإصدار "غوغل" تقرير عن "Gemini 2.5 Pro"، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار وودسايد إلى أن آخر مرة نشرت فيها "غوغل" نتائج اختبارات القدرات الخطيرة كان في يونيو 2024، لنموذج أُعلن عنه في فبراير من العام نفسه.

ولم تُصدر "غوغل" تقريرًا عن نموذج "Gemini 2.5 Flash"، وهو نموذج أصغر وأكثر كفاءة أعلنت عنه الشركة الأسبوع الماضي، مما لا يبعث على الثقة كثيرًا. وقال متحدث باسم الشركة، لموقع "TechCrunch "، إن تقريرًا عن النموذج "سيصدُر قريبًا".

اتهامات تتعلق بالشفافية

ربما كانت "غوغل" من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج، لكنها ليست الوحيدة التي اتُهمت مؤخرًا بتقصيرها في الشفافية.

وأصدرت شركة ميتا تقييمًا مشابهًا من حيث قلة التفاصيل بشأن السلامة لنماذجها مفتوحة المصدر الجديدة "Llama 4"، واختارت "OpenAI" عدم نشر أي تقرير لسلسلة "GPT-4.1".

وتُثقل كاهل "غوغل" ضمانات قدمتها الشركة العملاقة للجهات التنظيمية للحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها. وقبل عامين، أبلغت "غوغل" الحكومة الأميركية بأنها ستنشر علنًا تقارير السلامة نماذج الذكاء الاصطناعي العامة و"المهمة". وتبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى، متعهدةً "بتوفير الشفافية العامة" حول منتجات الذكاء الاصطناعي.

وصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، اتجاه نشر التقارير الغامضة وبوتيرة متقطعة بأنه "سباق نحو القاع" في مجال سلامة الذكاء الاصطناعي.

وقال: "إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبارات السلامة قبل الإطلاق من أشهر إلى أيام، فإن هذا التوثيق الضئيل لأهم نموذج ذكاء اصطناعي من غوغل يروي قصة مثيرة للقلق عن سباق نحو القاع في ما يتعلق بسلامة الذكاء الاصطناعي وشفافيته، مع تسارع الشركات إلى طرح نماذجها في السوق".