أطلقت أربع شركات كبرى في مجال الذكاء الاصطناعي اليوم مجموعة جديدة لتحديد أفضل الممارسات الأمنية وتعزيز استخدام التكنولوجيا لمواجهة التحديات المجتمعية الرئيسية.
تجادل المجموعة بأن الصناعة يجب أن تستمر في مراقبة نفسها حتى يتوصل صناع السياسة إلى قواعد جديدة.
قالت Google و Microsoft و OpenAI و Anthropic إن منتدى Frontier Model Forum الجديد سوف يسعى إلى تحقيق أربعة أهداف رئيسية حددتها Google في منشور مدونة جوجل.
الهدف الأول هو تعزيز أبحاث السلامة في الذكاء الاصطناعي لتعزيز التطوير المسؤول للنماذج الحدودية، وتقليل المخاطر، وتمكين التقييم المستقل والموحد للوظيفة والسلامة.
الهدف الثاني هو تحديد أفضل الممارسات لتطوير ونشر نماذج المحيط بشكل مسؤول، بحيث يمكن للجمهور فهم طبيعة التكنولوجيا وقدراتها وحدودها وآثارها.
ويتمثل الهدف الثالث في التعاون مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات للتبادل المعرفي بشأن مخاطر الثقة والسلامة.
ويهدف المنتدى أخيرًا إلى دعم الجهود المبذولة لتطوير التطبيقات التي يمكن أن تساعد في مواجهة أكبر تحديات المجتمع، مثل: التخفيف من تغير المناخ والتكيف معه، والكشف المبكر عن السرطان والوقاية منه، ومكافحة التهديدات السيبرانية.
وقالت الشركات التي أسست (منتدى نموذج الحدود) إنه يمكن للمنظمات التي تستوفي عدة معايير الانضمام إلى المجموعة.
وقالت جوجل في منشورها إن ذلك يشمل تطوير نماذج حدود أو نشرها، أو «نماذج التعلم الآلي الواسعة النطاق التي تتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، ويمكنها أداء مجموعة متنوعة من المهام».
ويجب على الشركات أيضًا إثبات التزامها بالأمن “من خلال الأساليب التقنية والمؤسسية”.
أعلنت المجموعة أنها ستشكل مجلسًا استشاريًا متنوعًا في الأشهر المقبلة لتوجيه أولوياتها. تتشاور الشركات الناشئة مع منظمات المجتمع المدني عند التخطيط للحوكمة وجمع الأموال.
يُظهر الجهد كيف ستبدو هذه التكنولوجيا دون خنق الابتكار أو إفساح المجال للحكومات في سباق الذكاء الاصطناعي الذي حدث في أواخر العام الماضي بعد إطلاق برنامج OpenAI chatbot ChatG. في محاولة من صانعي السياسات لتحديد Pte) ChatGPT.


