Vietnam.vn - Nền tảng quảng bá Việt Nam

3 عمليات احتيال في مجال الذكاء الاصطناعي يجب الحذر منها في عام 2024

Báo Thanh niênBáo Thanh niên16/01/2024

[إعلان 1]

وفقًا لـ BGR ، سيكون عام 2024 وقتًا محوريًا للعالم ليدرك ما إذا كان الذكاء الاصطناعي هو مستقبل الحوسبة حقًا أم أنه مجرد جنون عابر. وفي حين تتنوع التطبيقات الحقيقية للذكاء الاصطناعي بشكل متزايد، فإن الجانب المظلم لهذه التكنولوجيا سوف يتم الكشف عنه أيضًا من خلال عمليات احتيال لا حصر لها في الأشهر المقبلة.

أصدر خبراء مكافحة الاحتيال في Scams.info قائمة بثلاث عمليات احتيال بالذكاء الاصطناعي ينبغي على الجميع الحذر منها في عام 2024. كقاعدة عامة، احذر من أي شيء مبهرج للغاية، ولكن الحيل التالية تتطلب يقظة خاصة.

احتيال استثماري باستخدام الذكاء الاصطناعي

لقد استثمرت شركات كبيرة مثل جوجل ومايكروسوفت وOpenAI ملايين الدولارات في الذكاء الاصطناعي وستواصل الاستثمار بشكل أكبر هذا العام. سيستغل المحتالون هذه الحقيقة لإغرائك بالاستثمار في فرص مشبوهة. إذا حاول أحد الأشخاص على وسائل التواصل الاجتماعي إقناعك بأن الذكاء الاصطناعي سيضاعف عوائد استثماراتك، ففكر مرتين قبل فتح محفظتك.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 1.

الاستثمارات "الجيدة" منخفضة المخاطر لا وجود لها أبدًا.

يحذر الخبير نيكولاس كراوتش من موقع Scams.info قائلاً: "كن حذرًا من الاستثمارات التي تعد بعوائد مرتفعة مع مخاطر منخفضة وتأكد من إجراء البحث قبل الالتزام بأموالك". وينبغي للمستثمرين الجدد أيضًا أن يكونوا حذرين من العروض التي تهدف إلى إحالة المستثمرين؛ إنهم يعملون في كثير من الأحيان وفق نموذج متعدد المستويات، والذي لا يستفيد منه إلا أولئك الموجودون في القمة، في حين نادراً ما يستفيد منه المشاركون الآخرون.

انتحال شخصية الأقارب

لم تعد خدعة انتحال شخصية الأصدقاء أو الأقارب لاقتراض المال جديدة، حيث إن تقليد صوت المحتال ليس فعالاً حقًا. ومع ذلك، مع الذكاء الاصطناعي، أصبحت هذه الخدعة أكثر رعباً. بمجرد استخدام مقطع فيديو على YouTube أو منشور على Facebook بصوت أحد الأحباء، يمكن للمحتالين استخدام الذكاء الاصطناعي لتقليده بشكل مثالي. هل يمكنك معرفة الفرق عبر الهاتف؟

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 2.

يمكن للذكاء الاصطناعي تقليد صوت من تحب بسهولة

لقطة شاشة من صحيفة واشنطن بوست

وأكد كراوتش أنه "من المهم أن يحمي الأشخاص حساباتهم على وسائل التواصل الاجتماعي لمنع المحتالين من الاستيلاء على أصواتهم ومعلومات عائلاتهم".

استخدام الصوت لتجاوز نظام الأمان

تستخدم بعض البنوك خاصية التعرف على الصوت للتحقق من هوية المستخدمين عند إجراء المعاملات عبر الهاتف. وللأسباب المذكورة أعلاه، أصبحت هذه الطريقة فجأة أقل أمانًا من ذي قبل. إذا قمت بنشر مقاطع فيديو أو مقاطع صوتية في أي مكان على الإنترنت، فيمكن للأشرار استخدام هذا المحتوى لنسخ صوتك. وكما أشار كراوتش، لا تزال البنوك تمتلك بيانات أخرى للتحقق من هويات العملاء، ولكن هذا التكتيك يجعل المجرمين أقرب خطوة إلى سرقة حسابك المصرفي.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 3.

لم تعد أنظمة أمان الصوت آمنة من قوة الذكاء الاصطناعي

يمكن للذكاء الاصطناعي أن يغير حياتنا بشكل جذري وطريقة تفاعلنا مع الأجهزة. وهي أيضًا أحدث أداة يستخدمها المتسللون والمحتالون لمهاجمة المستخدمين. لذلك، كن دائمًا يقظًا وابحث دائمًا بعناية قبل المشاركة في أي أنشطة تتعلق بالذكاء الاصطناعي.


[إعلان 2]
رابط المصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

"الطفل الوطني" ينتشر عبر مواقع التواصل الاجتماعي قبل عطلة 30 أبريل
مقهى يثير الحمى بمشروبه الملون بالعلم الوطني في عطلة 30 أبريل
ذكريات جندي كوماندوز في انتصار تاريخي
اللحظة التي قالت فيها رائدة فضاء من أصل فيتنامي "مرحبا فيتنام" خارج الأرض

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج