3 عمليات احتيال في مجال الذكاء الاصطناعي يجب الحذر منها في عام 2024

Báo Thanh niênBáo Thanh niên16/01/2024

[إعلان 1]

وفقًا لـ BGR ، سيكون عام 2024 وقتًا محوريًا للعالم ليدرك ما إذا كان الذكاء الاصطناعي هو حقًا مستقبل الحوسبة أم مجرد جنون عابر. وفي حين تتنوع التطبيقات الحقيقية للذكاء الاصطناعي بشكل متزايد، فإن الجانب المظلم لهذه التكنولوجيا سوف يتكشف أيضا من خلال عمليات احتيال لا حصر لها في الأشهر المقبلة.

أصدر خبراء مكافحة الاحتيال في Scams.info للتو قائمة بثلاث عمليات احتيال تعتمد على الذكاء الاصطناعي والتي يجب على الجميع الحذر منها في عام 2024. كقاعدة عامة، احذر من أي شيء مبهرج للغاية، ولكن الحيل التالية تتطلب يقظة خاصة.

احتيال الاستثمار بالذكاء الاصطناعي

لقد استثمرت شركات كبيرة مثل Google وMicrosoft وOpenAI ملايين الدولارات في الذكاء الاصطناعي وستواصل الاستثمار بشكل أكبر هذا العام. سيستغل المحتالون هذه الحقيقة لإغرائك بالاستثمار في فرص مشبوهة. إذا حاول أحد الأشخاص على وسائل التواصل الاجتماعي إقناعك بأن الذكاء الاصطناعي سوف يضاعف عوائد استثماراتك، ففكر مرتين قبل فتح محفظتك.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 1.

الاستثمارات "الجيدة" منخفضة المخاطر لا وجود لها أبدًا.

يحذر الخبير نيكولاس كراوتش من موقع Scams.info قائلاً: "كن حذرًا من الاستثمارات التي تعد بعوائد عالية مع مخاطر منخفضة وتأكد من إجراء البحث قبل الالتزام بأموالك". وينبغي للمستثمرين الجدد أيضًا أن يكونوا حذرين من العروض التي تروج للمستثمرين؛ إنهم يعملون في كثير من الأحيان وفق نموذج متعدد المستويات، والذي لا يستفيد منه إلا من هم في القمة، في حين نادرا ما يستفيد منه المشاركون الآخرون.

انتحال صفة الأقارب

لم تعد خدعة انتحال شخصية الأصدقاء أو الأقارب لاقتراض المال جديدة، حيث إن تقليد صوت المحتال ليس فعالاً حقًا. ومع ذلك، مع الذكاء الاصطناعي، أصبحت هذه الخدعة أكثر رعبا. بمجرد استخدام مقطع فيديو على YouTube أو منشور على Facebook بصوت أحد الأحباء، يمكن للمحتالين استخدام الذكاء الاصطناعي لتقليده تمامًا. هل يمكنك معرفة الفرق عبر الهاتف؟

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 2.

يمكن للذكاء الاصطناعي تقليد صوت من تحب بسهولة

لقطة شاشة لصحيفة واشنطن بوست

وأكد كراوتش أنه "من المهم أن يحمي الأشخاص حساباتهم على وسائل التواصل الاجتماعي لمنع المحتالين من الاستيلاء على أصواتهم ومعلومات عائلاتهم".

استخدام الصوت لتجاوز نظام الأمان

تستخدم بعض البنوك خاصية التعرف على الصوت للتحقق من هوية المستخدمين عند إجراء المعاملات عبر الهاتف. ولأسباب مذكورة أعلاه، أصبحت هذه الطريقة فجأة أقل أمانًا من ذي قبل. إذا قمت بنشر مقاطع فيديو أو مقاطع صوتية في أي مكان على الإنترنت، فيمكن للأشرار استخدام هذا المحتوى لنسخ صوتك. وكما يشير كراوتش، لا تزال البنوك تمتلك بيانات أخرى للتحقق من هويات العملاء، ولكن هذا التكتيك يجعل المحتالين أقرب خطوة إلى سرقة حسابك المصرفي.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 3.

لم تعد أنظمة الأمان الصوتي آمنة من قوة الذكاء الاصطناعي

يمكن للذكاء الاصطناعي أن يغير حياتنا بشكل جذري وطريقة تفاعلنا مع الأجهزة. وهي أيضًا أحدث أداة يستخدمها المتسللون والمحتالون لمهاجمة المستخدمين. لذلك، يجب عليك أن تكون دائمًا يقظًا وتبحث دائمًا بعناية قبل المشاركة في أي أنشطة تتعلق بالذكاء الاصطناعي.


[إعلان رقم 2]
رابط المصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

فيتنام تدعو إلى حل سلمي للصراع في أوكرانيا
تطوير السياحة المجتمعية في ها جيانج: عندما تعمل الثقافة المحلية كـ"رافعة" اقتصادية
أب فرنسي يعيد ابنته إلى فيتنام للبحث عن والدتها: نتائج الحمض النووي لا تصدق بعد يوم واحد
كان ثو في عيني

نفس المؤلف

صورة

إرث

شكل

عمل

No videos available

أخبار

الوزارة - الفرع

محلي

منتج