ويقال إن وزارة كفاءة الحكومة التابعة لإيلون ماسك تستخدم الذكاء الاصطناعي لتوجيه قرارات خفض التكاليف. ويثير هذا التكتيك مخاوف بشأن الأمن والتحيز والأخطاء.
قال إيلون ماسك إن هدفه هو خفض العجز في الميزانية الأميركية بسرعة بما لا يقل عن تريليون دولار.
وتشير تقارير إعلامية نقلاً عن مصادر مجهولة إلى أن وزارة الطاقة والصناعة والثروة المعدنية تستخدم الذكاء الاصطناعي لتسريع قرارات خفض التكاليف.
ويصف ديفيد إيفان هاريس، خبير الذكاء الاصطناعي الذي كان يعمل في قسم الذكاء الاصطناعي المسؤول في شركة ميتا، هذه الفكرة بأنها "فكرة رهيبة".
ويقول الخبراء إن هذا النهج يعكس عقلية "القطع أولاً والإصلاح لاحقًا" التي تبناها ماسك في تويتر قبل عامين، مما أدى إلى فقدان الآلاف من الوظائف، والأعطال الفنية، والدعاوى القضائية، والخلافات التي أدت إلى تآكل الشبكة الاجتماعية.
ومع ذلك، فإن عواقب تفكيك الوكالات والأنظمة والخدمات الحكومية ستكون أكثر خطورة بكثير من شركة تكنولوجيا.
استخدام الذكاء الاصطناعي لتوجيه قرارات خفض التكاليف
وبحسب صحيفة واشنطن بوست، في أوائل فبراير/شباط، قام أعضاء DOGE بإدخال بيانات حساسة لوزارة التعليم في برنامج الذكاء الاصطناعي لتحليل برامج الوزارة وإنفاقها.
وذكرت مجلة Wired أن موظفي DOGE قاموا بتطوير روبوت محادثة يعمل بالذكاء الاصطناعي لإدارة الخدمات العامة (GSA) يسمى GSAi، والذي يساعد في تحليل كميات كبيرة من بيانات العقود والمشتريات.
وذكر تقرير آخر من NBC News أن وزارة الدفاع تفكر في استخدام الذكاء الاصطناعي لتحليل ردود الفعل الوظيفية لموظفي الحكومة الفيدرالية لتحديد الوظائف التي لم تعد هناك حاجة إليها.
في فبراير/شباط، أفاد موقع Wired أن وزارة الدفاع الأمريكية قامت بتعديل برنامج AutoRIF التابع لوزارة الدفاع لتصنيف الأفراد بشكل تلقائي لأغراض الفصل.
في الأسبوع الماضي، استقال 21 موظفًا في وكالة الخدمات الرقمية الأمريكية (USDS) احتجاجًا. واتهموا موظفي وزارة الطاقة بسوء التعامل مع بيانات حساسة وتعطيل الأنظمة الحيوية.
لكن السكرتيرة الصحفية للبيت الأبيض كارولين ليفات أكدت أن أي شخص يعتقد أن الاحتجاجات أو الدعاوى القضائية أو الإجراءات القانونية يمكن أن توقف الرئيس ترامب "لا بد أنه كان جاهلاً خلال السنوات القليلة الماضية"، بحسب وكالة أسوشيتد برس.
وفي برنامج X، وصف ماسك هؤلاء الأشخاص أيضًا بأنهم "محافظون" ورفضوا العودة إلى المكتب.
ووفقاً لأماندا رينتيريا، الرئيسة التنفيذية لشركة Code for America، وهي منظمة غير ربحية تعمل على تطوير الأدوات الرقمية وبناء القدرات التقنية للحكومات، فإن جزءاً من المشكلة هو أن بناء أدوات الذكاء الاصطناعي الفعالة يتطلب فهماً عميقاً للبيانات المستخدمة للتدريب، وهو شيء لا يمتلكه فريق DOGE.
قد تكون النتائج التي تنتجها أدوات الذكاء الاصطناعي عديمة الفائدة، أو قد تفتقر التكنولوجيا إلى المعلومات والسياق لاتخاذ القرار الصحيح. قد يكون لديه مشكلة "الهلوسة".
وبحسب العديد من وكالات الأنباء، فإن طاقم DOGE هو مجموعة من الشباب في العشرينيات من العمر، قادمين من شركات أخرى تابعة لشركة Musk.
مخاوف بشأن استخدام DOGE للذكاء الاصطناعي
يخشى الخبراء من أن الذكاء الاصطناعي قد يكرر التحيزات الشائعة بين البشر. على سبيل المثال، تفضل بعض أدوات التوظيف المعتمدة على الذكاء الاصطناعي المرشحين الذكور البيض على المرشحين الآخرين.
إذا تم استخدام الذكاء الاصطناعي لتحديد المناصب أو المشاريع التي سيتم إلغاؤها، فهذا يعني أنه سيتم الاستغناء عن بعض الأشخاص أو الوظائف المهمة لمجرد مظهرهم أو من يخدمونهم.
قام هاريس بتحليل مثال استخدام الذكاء الاصطناعي لتقييم ردود الفعل من الموظفين الفيدراليين: قد يحكم الذكاء الاصطناعي على الموظفين الموهوبين الذين لغتهم الأم ليست الإنجليزية بأنهم أقل شأنا من المتحدثين باللغة الإنجليزية.
ورغم أن هذه المخاوف ليست جديدة، إلا أنها قد تكون لها عواقب أكثر خطورة إذا سارت الأمور على نحو خاطئ في الحكومة. يعترف ماسك نفسه بأن شركة DOGE يمكن أن ترتكب أخطاء وانسحبت من بعض الجهود المهمة مثل الوقاية من الإيبولا.
ومن غير الواضح ما إذا كانت الذكاء الاصطناعي قد شاركت في اتخاذ هذا القرار.
لا يمكن إنكار أن الذكاء الاصطناعي يساعد على زيادة كفاءة العمل، وتلخيص وتحليل كميات كبيرة من المعلومات. ولكن إذا لم يتم استخدامها بحذر، فقد تعرض بيانات حكومية حساسة أو معلومات شخصية للأشخاص للخطر.
بدون الحماية المناسبة والقيود على من يمكنه الوصول إلى النظام، يمكن أن تظهر البيانات المدخلة في برنامج الذكاء الاصطناعي بشكل غير متوقع في الاستجابات لطلبات أخرى وتقع في أيدي أشخاص لا ينبغي لهم أن يعرفوا.
كان هاريس قلقًا بشكل خاص بشأن تعامل وزارة الدفاع مع سجلات الموظفين، والتي وصفها بأنها من بين "أكثر الوثائق حساسية في أي منظمة".
ومع ذلك، ربما يكون القلق الأكثر إلحاحًا، وفقًا للخبراء، هو الافتقار إلى الشفافية المحيطة باستخدام DOGE للذكاء الاصطناعي. ما هي الأدوات التي تستخدمها الوزارة، وكيف يتم مراقبتها، وهل هناك بشر يقومون بفحص وتقييم النتائج… لا تزال أسئلة مفتوحة.
وتقول جوليا ستويانوفيتش، الأستاذة المساعدة في علوم الكمبيوتر ومديرة مركز الذكاء الاصطناعي المسؤول في جامعة نيويورك، إنه لكي يكون الذكاء الاصطناعي فعالاً، يجب على المستخدمين أن يكونوا واضحين بشأن أهدافهم من التكنولوجيا واختبار ما إذا كان نظام الذكاء الاصطناعي يلبي تلك الاحتياجات بشكل كامل.
"أنا حقًا أشعر بالفضول لسماع فريق DOGE وهو يشرح بالتفصيل كيفية قياس الأداء وصحة النتائج"، شاركت.
(وفقا لشبكة CNN)
[إعلان رقم 2]
المصدر: https://vietnamnet.vn/hiem-hoa-khi-bo-doge-cua-elon-musk-ra-quyet-dinh-dua-tren-ai-2377729.html
تعليق (0)