تُعد ميزة الذاكرة طويلة المدى في ChatGPT ميزة جديدة قدمتها OpenAI في فبراير 2024 وتم توسيعها في سبتمبر.
ومؤخرًا، كشف الباحث الأمني يوهان ريهبرجر عن ثغرة خطيرة تتعلق بهذه الميزة.
ومن المعروف أن هذه الميزة الجديدة تساعد روبوتات الدردشة على تخزين المعلومات من المحادثات السابقة. بفضل هذا، لن يحتاج المستخدمون إلى إعادة إدخال معلومات مثل العمر أو الاهتمامات أو وجهات النظر الشخصية في كل مرة يتحدثون فيها. ومع ذلك، فقد أصبح هذا نقطة ضعف يمكن للمهاجمين استغلالها.
أظهر يوهان ريهبرجر أن القراصنة يمكنهم استخدام تقنيات الحقن الفوري - زرع تعليمات ضارة في الذاكرة، مما يجبر الذكاء الاصطناعي على الانصياع. سيتم حقن هذه الأوامر من خلال محتوى غير موثوق به مثل رسائل البريد الإلكتروني أو المستندات أو صفحات الويب.
وبمجرد تخزين هذه الذكريات المزيفة، ستستمر الذكاء الاصطناعي في استخدامها كمعلومات حقيقية في المحادثات مع المستخدمين. قد يؤدي هذا إلى جمع واستخدام البيانات الشخصية للمستخدمين بشكل غير مصرح به.
قدم ريهبرجر مثالاً محددًا عن طريق إرسال رابط يحتوي على صورة ضارة تسببت في قيام ChatGPT بتخزين ذاكرة خاطئة. ستؤثر هذه المعلومات على استجابات ChatGPT لاحقًا. وعلى وجه الخصوص، سيتم أيضًا إرسال أي معلومات يدخلها المستخدم إلى خادم المخترق.
وبناءً على ذلك، لتفعيل الهجوم، كل ما يحتاجه المتسللون هو إقناع مستخدمي ChatGPT بالنقر فوق رابط يحتوي على صورة ضارة. بعد ذلك، سيتم إعادة توجيه جميع محادثات المستخدم مع ChatGPT إلى خادم المهاجم دون ترك أي أثر.
في مايو 2024، بعد اكتشاف الخلل، أبلغ ريهبرجر عنه إلى OpenAi، لكن الشركة اعتبرته مجرد خطأ أمني. بعد تلقي أدلة على سرقة بيانات المستخدم المحتملة، أصدرت الشركة تصحيحًا مؤقتًا على إصدار الويب من ChatGPT.
ورغم إصلاح المشكلة مؤقتًا، أكد ريهبرجر أن المحتوى غير الموثوق به لا يزال بإمكانه استخدام حقن المطالبة لإدراج معلومات مزيفة في الذاكرة طويلة المدى لبرنامج ChatGPT. وهذا يعني أنه في بعض الحالات، لا يزال بإمكان المتسللين استغلال الثغرة الأمنية لتخزين ذكريات ضارة لسرقة المعلومات الشخصية على المدى الطويل.
توصي OpenAI المستخدمين بالتحقق بانتظام من ذاكرة التخزين المؤقت لـ ChatGPT بحثًا عن نتائج إيجابية خاطئة. وفي الوقت نفسه، توفر الشركة أيضًا تعليمات مفصلة حول كيفية إدارة وحذف الذكريات المحفوظة في هذه الأداة.
[إعلان 2]
المصدر: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
تعليق (0)