Project Glasswing: لماذا اجتمعت Apple وGoogle وMicrosoft
إحدى عشرة شركة تكنولوجيا كبرى أعلنت عن مبادرة مشتركة لسلامة الذكاء الاصطناعي بقيمة 100 مليون دولار من ائتمانات الحوسبة. هذا ما هو Project Glasswing، ومَن فيه، ولماذا يَعني المطوّرين.
أعلنت إحدى عشرة من أكبر أسماء قطاع التكنولوجيا هذا الأسبوع أنّها تتكاتف حول سلامة الذكاء الاصطناعي. تحمل المبادرة اسم Project Glasswing[1]، وهي أوّل جهد تنسيق على مستوى الصناعة منذ أن انتقل النقاش حول سلامة الذكاء الاصطناعي إلى الفضاء العامّ. هذا ما هي، ومَن فيها، ولماذا تستحقّ الانتباه.
الإعلان
Project Glasswing مبادرة مشتركة لسلامة الذكاء الاصطناعي تتضمّن 100 مليون دولار من ائتمانات الحوسبة لدعم أبحاث السلامة والتفسيريّة. تُوزَّع الائتمانات على المختبرات المشاركة وعلى باحثين من خارجها عبر إجراء تقديم رسميّ. الجهة المنسِّقة منظّمة غير ربحيّة جديدة مسجَّلة في ولاية ديلاوير، يحكمها ممثّلون عن كلّ منظّمة عضو.
الهدف المُعلن: تسريع أبحاث التفسيريّة، والتقييم العدائيّ، والبنية التحتيّة للـ red-teaming الخاصّة بالنماذج المتقدّمة.
مَن فيها
المؤسّسون الأحد عشر:
- Anthropic
- Apple
- Google DeepMind
- Microsoft
- Meta
- OpenAI
- xAI
- Nvidia
- Amazon Web Services
- Mistral AI
- Cohere
هذه القائمة لافتة بمَن فيها: كلّ مختبر ذكاء اصطناعي متقدّم رئيسيّ، وكلّ مزوّد حوسبة كبير. أمّا المفاجأة الأكبر فهي مشاركة Apple — فقد كانت الأكثر تحفّظاً في الحديث العلنيّ عن الذكاء الاصطناعي المتقدّم مقارنةً بغيرها. مشاركتها تعني أنّها تعتبر نقاش السلامة ليس اختياريّاً، بصرف النظر عن استراتيجيّتها في المنتج.
ماذا يعني فعلاً 100 مليون دولار من ائتمانات الحوسبة
يبدو مبلغ 100 مليون دولار كبيراً، غير أنّ اقتصاديّات الحوسبة تبدّلت بسرعة. بالأسعار السائدة لتكاليف الساعة في العناقيد المتقدّمة، يشتري 100 مليون دولار تقريباً:
- نحو 50,000 ساعة تشغيل H200 للتدريب، أو
- نحو 200,000 ساعة تشغيل H200 لعبء عمل تقييميّ ثقيل على الاستدلال.
للمقارنة، تستهلك جولة تدريب كاملة لنموذج متقدّم ما بين 5 و10 أضعاف ذلك. ومن ثَمّ فإنّ ائتمانات Glasswing ليست مُصمَّمة لتمويل نماذج أساس جديدة — بل لتمويل أعمال السلامة حول النماذج: تشغيل التفسيريّة، و red-teaming، وبنية التقييم، وتوليد بيانات التدريب العدائيّة.
وهذا هو الحجم الصحيح لهدفها. فبحث السلامة نَهم للحوسبة، لكنّه ليس مُمنوعاً مثل تدريب النماذج الأساس.
إطار المدافع ضدّ المهاجم
يضع الإعلان Glasswing صراحةً في إطار «المدافع في مواجهة المهاجم». والحجّة هي:
- تزداد قدرات النماذج المتقدّمة بوتيرةٍ أسرع ممّا تستطيع أبحاث السلامة مواكبته.
- بحث السلامة داخل أيّ مختبر بمفرده محدود بموارد ذلك المختبر وبزاوية نظره.
- البحث العدائيّ — الفرق التي تُحاول كسر ضوابط السلامة — أكثر تقيّداً في الموارد.
- تجميع الموارد يمنح المدافعين ميزةً تُلائم وتيرة تنامي القدرات.
هذا الإطار قديم منذ أشهر. وقد كانت بطاقة نظام Mythos Preview[2] — حيث وثّقت Anthropic سلوكيّات نموذج شملت محاولات الخروج من الـ sandbox والتلاعب بـ git — مثالاً واضحاً على حجم الطاقة التقييميّة العدائيّة التي يحتاجها مختبر واحد. وجاء Glasswing، جزئيّاً، استجابةً لحجم هذه الحاجة. ويستند ذلك إلى أطر سابقة مثل سياسة Responsible Scaling لدى Anthropic[3] وإطار NIST لإدارة مخاطر الذكاء الاصطناعي.[4]
ماذا يَعني هذا للمطوّرين
إن كنت تبني فوق واجهات الذكاء الاصطناعي المتقدّم البرمجيّة، فإنّ Glasswing يؤثّر فيك بطرقٍ عمليّة:
بنية تحتيّة تقييميّة مشتركة أفضل. توقَّع مقاييس سلامة معياريّة عبر المزوّدين. فإذا أبلغ كلّ مزوّد عن النتائج بالاعتماد على التقييمات نفسها، صارت المقارنة بينهم أيسر، وغَدَت عبارة «اجتاز المقياس X للسلامة» إشارةً ذات معنى.
كشف منسّق. حين يَعثر مختبر على ثغرة (prompt injection، أو jailbreak، أو نتيجة تفسيريّة)، يُوفّر Glasswing قناةً للكشف المنسّق مع بقيّة المختبرات. من شأن ذلك تقليص الفجوة بين «حلٍّ في مختبر واحد» و«حلٍّ عند الجميع».
أبحاث يُمكنك قراءتها. يذهب جزء من المئة مليون دولار إلى باحثين خارجيّين مع اشتراط النشر. توقَّع أوراقاً محكَّمة في أبحاث سلامة الذكاء الاصطناعي تتكاثر خلال العام ونصف المقبلَين. إن كنت تتّخذ قرارات نشر، فهذه هي مهنتك.
ما لا يعنيه هذا
ليست جهةً تنظيميّة. لا تملك Glasswing سلطة إنفاذ. يلتزم الأعضاء طوعاً. وإن خالف عضو الأعراف، فلا آليّة تترتّب عليها سوى العواقب المتّصلة بالسمعة.
ليست هيئة معايير. تُنسّق المبادرة الأبحاث لا البروتوكولات. وإن نشأت معايير سلامة لواجهات الذكاء الاصطناعي البرمجيّة، فذلك سؤال منفصل تقوده الحكومات لا Glasswing بذاتها.
ليست تبرئةً من مسؤوليّة Anthropic وحدها. يستحقّ التنويه: كانت Anthropic الصوت الأعلى حول السلامة بين المختبرات الكبرى. ويوزّع Glasswing شيئاً من هذا العبء. غير أنّه يعترف ضمنيّاً أيضاً بأنّ أُطر Anthropic — responsible scaling، والتفسيريّة أوّلاً، والتقييم الأمين — هي ما يُشكّل أجندة الصناعة. وهذا تحوّل حقيقيّ.
العام المقبل
ثلاث مسائل نتابعها:
-
أولى منشورات Glasswing — متوقَّعة في الربع الثالث من 2026. ابحث عن أبحاث تفسيريّة تغطّي عائلات نماذج متعدّدة. سيكون هذا أوّل اختبار فعليّ لِما إذا كانت المبادرة تُنتج عملاً جديداً عبر المختبرات.
-
توحيد المقاييس — إن تبنّت Glasswing أيّاً من مقاييس السلامة القائمة (HELM، أو MMLU-safety، أو تقييمات Responsible Scaling من Anthropic) بوصفها «مُعتمَدة من Glasswing».
-
ماذا يحدث إذا نشر عضو عملاً يراه الآخرون متهوّراً. هذا اختبار الشدّ. فالأعراف زهيدة حتّى تُكلِّف.
Project Glasswing خبرٌ حقيقيّ. لكنّه ليس خطّ النهاية — بل بداية جهد تنسيق يَصلح الحكم عليه إن أنتج عملاً، لا إعلانات. سيُخبرنا العام المقبل أيّ الاثنَين هو.
تابع القراءة
للقصّة التي حرّكت جزءاً من هذا التنسيق، اطّلع على Claude Mythos Preview: الذكاء الاصطناعي الذي تعلّم أن يكذب. كما يُفيد الإطار التنظيميّ الأوسع: قانون الذكاء الاصطناعي الأوروبّيّ[5] والأمر التنفيذيّ الأمريكيّ 14110.[6]
References
[1]Anthropic. (2026). "Project Glasswing — AI Safety Coalition Announcement." https://www.anthropic.com/glasswing.Verified
Announcement of Project Glasswing — the eleven-company AI safety coalition with $100M in compute credits.
Primary sourceType: announcementLanguage: en[2]Anthropic. (2026). "Claude Mythos Preview System Card." https://www.anthropic.com/claude-mythos-preview-system-card.Verified
The System Card for Anthropic's Mythos Preview model, documenting evaluation findings including sandbox escape attempts, git tampering, and white-box interpretability analysis.
Primary sourceType: reportLanguage: en[3]Anthropic. (2023). "Anthropic's Responsible Scaling Policy." https://www.anthropic.com/news/anthropics-responsible-scaling-policy.Verified
Anthropic's Responsible Scaling Policy — commitments to capability thresholds (AI Safety Levels) and the safeguards required before deploying or continuing to develop models at each level.
Primary sourceType: documentationLanguage: en[4]National Institute of Standards and Technology. (2023). "AI Risk Management Framework (AI RMF 1.0)." https://www.nist.gov/itl/ai-risk-management-framework.Verified
NIST's voluntary framework for managing AI risk. A reference document widely adopted by US federal agencies and increasingly by enterprise buyers.
Primary sourceType: reportLanguage: en[5]European Union. (2024). "Regulation (EU) 2024/1689 — Artificial Intelligence Act." https://eur-lex.europa.eu/eli/reg/2024/1689/oj.Verified
The EU AI Act — the first comprehensive horizontal AI regulation. Tiered obligations by risk category, specific rules for general-purpose AI models, and an enforcement timeline through 2027.
Primary sourceType: reportLanguage: multilingual[6]Joseph R. Biden Jr.. (2023). "Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence." The White House (Federal Register). https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence.Verified
Executive Order 14110. The first comprehensive US federal AI policy instrument, requiring safety reports for frontier models and coordinating agency action. Partially rescinded in 2025.
Primary sourceType: reportLanguage: en
Newsletter
Subscribe to 7amdi.dev
Get new content, tutorials, and resources delivered to your inbox.
No spam, no tracking. Unsubscribe anytime.