وستتعاون الشركتان مع معهد سلامة الذكاء الاصطناعي الأمريكي، وهو وحدة تابعة للمعهد الوطني للمعايير والتكنولوجيا (NIST)، وهي وكالة فيدرالية أمريكية. ويُنظر إلى هذا باعتباره خطوة مهمة إلى الأمام في إدارة ومراقبة تقنية الذكاء الاصطناعي، والتي كانت مصدر قلق كبير منذ إطلاق ChatGPT من OpenAI.
وقالت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي في الولايات المتحدة: "هذه مجرد البداية، ولكنها معلم مهم في الجهود المبذولة لإدارة مستقبل الذكاء الاصطناعي بشكل مسؤول".
وبموجب الاتفاق، سيقدم معهد سلامة الذكاء الاصطناعي الأمريكي تعليقات إلى الشركتين بشأن التحسينات المحتملة للسلامة في نماذجهما، قبل وبعد إصدارها للجمهور. وسوف يتعاون المعهد أيضًا بشكل وثيق مع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة خلال هذه العملية.
قال جاك كلارك، المؤسس المشارك ورئيس قسم السياسات في أنثروبيك: "تستفيد شراكتنا مع معهد سلامة الذكاء الاصطناعي الأمريكي من خبرتهم الواسعة لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع. وهذا يعزز قدرتنا على تحديد المخاطر والحد منها، مما يعزز تطوير الذكاء الاصطناعي المسؤول".
وتأتي هذه الخطوة في إطار الجهود المبذولة لتنفيذ الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي والمقرر صدوره في عام 2023، والذي يهدف إلى إنشاء إطار قانوني للنشر السريع لنماذج الذكاء الاصطناعي في الولايات المتحدة.
ومع ذلك، بينما تتبنى الحكومة الفيدرالية نهجًا تطوعيًا، أقر المشرعون في كاليفورنيا - مركز التكنولوجيا في أمريكا - مشروع قانون سلامة الذكاء الاصطناعي على مستوى الولاية في 28 أغسطس/آب. وإذا وقع الحاكم على مشروع القانون، فسيفرض لوائح أكثر صرامة على صناعة الذكاء الاصطناعي.
أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن دعمه لتنظيم الذكاء الاصطناعي على المستوى الوطني بدلاً من مستوى الولايات، بحجة أن هذا من شأنه أن يساعد في تجنب خطر إعاقة البحث والابتكار في مجال الذكاء الاصطناعي.
وتُظهر الخطوة التي اتخذتها شركات التكنولوجيا الرائدة والحكومة الأمريكية اتجاهًا نحو تحقيق التوازن بين الابتكار والسلامة في مجال الذكاء الاصطناعي سريع التطور.
[إعلان 2]
المصدر: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
تعليق (0)