នៅក្នុងការព្រមានមួយដែលត្រូវបានផ្សព្វផ្សាយក្នុងសប្តាហ៍នេះ FBI បាននិយាយថា ថ្មីៗនេះ ខ្លួនបានសង្កេតឃើញការកើនឡើងនៃជនរងគ្រោះដោយ blackmail ដែលនិយាយថាពួកគេត្រូវបានគេកំណត់គោលដៅដោយប្រើប្រាស់ AI ដើម្បីកែសម្រួលរូបភាពធម្មតា ខុសពីការបង្ហោះតាមអ៊ីនធឺណិត សារផ្ទាល់ខ្លួន ឬការជជែកជាវីដេអូទៅជាកំណែក្លែងក្លាយ។
ប៉ូលិសអេស្ប៉ាញធ្លាប់បានចាប់ខ្លួនអ្នកសរសេរកម្មវិធីម្នាក់ដែលប្រើ AI ដើម្បីបង្កើតរូបភាពអាសអាភាសរបស់កុមារក្លែងក្លាយ។ រូបថត៖ Daily Mail
ការព្រមានបាននិយាយថា បន្ទាប់មករូបភាពទាំងនោះត្រូវបានបញ្ជូនដោយផ្ទាល់ទៅកាន់ជនរងគ្រោះដោយជនដៃដល់សម្រាប់ការបង្ខូចកេរ្តិ៍ឈ្មោះ ឬការបៀតបៀនផ្លូវភេទ។ នៅពេលដែលពួកគេត្រូវបានចែកចាយ ជនរងគ្រោះអាចប្រឈមមុខនឹងបញ្ហាសំខាន់ៗក្នុងការទប់ស្កាត់ការបន្តចែករំលែកខ្លឹមសារដែលបានរៀបចំ ក៏ដូចជាក្នុងការដកវាចេញពីអ៊ីនធឺណិត។
ការិយាល័យបាននិយាយថា រូបភាពទាំងនោះហាក់ដូចជា "ពិតចំពោះជីវិត" ខណៈពេលដែលកត់សម្គាល់ថា កុមារក៏ត្រូវបានគេកំណត់គោលដៅក្នុងករណីខ្លះផងដែរ។
កាលពីខែកុម្ភៈ ប៉ូលីសនៅក្នុងប្រទេសអេស្ប៉ាញបានចាប់ខ្លួនអ្នកសរសេរកម្មវិធីកុំព្យូទ័រម្នាក់ដែលប្រើ AI ដើម្បីបង្កើតរូបភាពរំលោភបំពានកុមារដ៏គួរឱ្យរន្ធត់នៅក្នុងអ្វីដែលគេជឿថាជាការចាប់ខ្លួនដំបូងគេ។
FBI មិនបានលម្អិតអំពីកម្មវិធី AI ដែលប្រើដើម្បីបង្កើតរូបភាពផ្លូវភេទនោះទេ ប៉ុន្តែបានកត់សម្គាល់ថា ភាពជឿនលឿននៃបច្ចេកវិទ្យាគឺ "ការកែលម្អជាបន្តបន្ទាប់នូវគុណភាព ការប្ដូរតាមបំណង និងភាពងាយស្រួលនៃការបង្កើតមាតិកាដែលដំណើរការដោយ AI"។
ការកែសម្រួលរូបថតធម្មតាដើម្បីបង្កើតរូបភាពស្រើបស្រាលគឺស្ទើរតែដូចការថតរូបខ្លួនឯងទៅហើយ ប៉ុន្តែការផ្ទុះនាពេលថ្មីៗនេះនៃឧបករណ៍ AI បើកចំហបានធ្វើឱ្យដំណើរការកាន់តែងាយស្រួលជាងពេលណាទាំងអស់។
រូបថត ឬវីដេអូក្លែងក្លាយច្រើនតែមិនអាចបែងចែកបានពីកំណែជីវិតពិត។ ជាការពិត គេហទំព័រ និងបណ្តាញសង្គមជាច្រើនដែលឧទ្ទិសដល់ការបង្កើត និងផ្លាស់ប្តូររូបភាពផ្លូវភេទដែលដំណើរការដោយ AI បានលេចឡើងក្នុងប៉ុន្មានឆ្នាំថ្មីៗនេះ។
នេះត្រូវបានគេចាត់ទុកថាជាហានិភ័យមួយក្នុងចំណោមហានិភ័យដែលបញ្ញាសិប្បនិមិត្តអាចបង្កឱ្យសង្គមដូចដែលអ្នកជំនាញបានព្រួយបារម្ភនិងព្រមានកាលពីពេលថ្មីៗនេះ។
លោក Hoang Anh (យោងតាមកាសែត Daily Mail, Reuters)
ប្រភព
Kommentar (0)