ការផ្ទុះនៃបញ្ញាសិប្បនិមិត្ត (AI) បាននាំមកនូវនិន្នាការច្បាស់លាស់មួយ៖ ភាពលំអៀងនៅក្នុងប្រព័ន្ធរៀនម៉ាស៊ីនបណ្តុះបណ្តាលនាំទៅរកអាកប្បកិរិយារើសអើងនៅក្នុងពិភពពិត។
ការសិក្សានាពេលថ្មីៗនេះ ដោយក្រុមអ្នកវិទ្យាសាស្ត្រនៅចក្រភពអង់គ្លេស និងចិន បង្ហាញថា កម្មវិធីរកឃើញអ្នកថ្មើរជើងដែលបំពាក់នៅលើយានយន្តបើកបរដោយខ្លួនឯង ដែលត្រូវបានប្រើដោយក្រុមហ៊ុនផលិតរថយន្តជាច្រើន ប្រហែលជាមានប្រសិទ្ធភាពតិចជាងនៅពេលដែលប្រធានបទទាំងនោះជាមនុស្សពណ៌សម្បុរ ឬកុមារ ដែលនាំឱ្យមនុស្សទាំងនេះមានហានិភ័យខ្ពស់នៅពេលចូលរួមក្នុងចរាចរណ៍។
ទោះបីជាយេនឌ័របង្ហាញភាពខុសប្លែកគ្នាតិចតួចក្នុងភាពត្រឹមត្រូវក៏ដោយ ក៏អ្នកស្រាវជ្រាវបានរកឃើញថាប្រព័ន្ធ AI មិនសូវមានភាពត្រឹមត្រូវក្នុងការទទួលស្គាល់អ្នកថ្មើរជើងដែលមានសម្លេងស្បែកខ្មៅជាង។
Jie Zhang អ្នកវិទ្យាសាស្ត្រកុំព្យូទ័រនៅ King's College London និងជាសមាជិកនៃក្រុមស្រាវជ្រាវបាននិយាយថា "បុគ្គលជនជាតិភាគតិចដែលត្រូវបានបដិសេធសេវាកម្មសំខាន់ៗជាច្រើនឥឡូវនេះកំពុងប្រឈមនឹងហានិភ័យគ្រោះថ្នាក់ធ្ងន់ធ្ងរ" ។
ជាពិសេស របាយការណ៍បានកត់សម្គាល់ថា ប្រព័ន្ធនេះគឺ 19.67% ទំនងជារកឃើញមនុស្សពេញវ័យជាងកុមារ ហើយ 7.52% ទំនងជាតិចជាងក្នុងការរកឃើញមនុស្សដែលមានពណ៌ស្បែកខ្មៅ។
ក្រុមការងារបានរាយការណ៍ថា "សរុបមក ការស្រាវជ្រាវនេះបង្ហាញឱ្យឃើញពីបញ្ហាយុត្តិធម៌ដែលប្រឈមមុខដោយប្រព័ន្ធរកឃើញអ្នកថ្មើរជើងបច្ចុប្បន្ន ដោយបញ្ជាក់ពីសារៈសំខាន់នៃការដោះស្រាយភាពលំអៀងទាក់ទងនឹងអាយុ និងពណ៌ស្បែក"។ "ការយល់ដឹងដែលទទួលបានអាចត្រួសត្រាយផ្លូវសម្រាប់ប្រព័ន្ធបើកបរស្វយ័តដែលមិនលំអៀង និងយុត្តិធម៌បន្ថែមទៀតនាពេលអនាគត។"
យោងតាមសមាជិកនៃក្រុមស្រាវជ្រាវ របាយការណ៍របស់ពួកគេមិនបានប្រើប្រាស់កម្មវិធីពិតប្រាកដដែលក្រុមហ៊ុនដូចជា Tesla ដំឡើងនៅក្នុងរថយន្តរបស់ពួកគេទេ ព្រោះនេះជាអាថ៌កំបាំងពាណិជ្ជកម្ម ផ្ទុយទៅវិញការស្រាវជ្រាវពឹងផ្អែកលើ AIs ប្រភពបើកចំហដែលប្រើដោយអាជីវកម្ម។
"វាចាំបាច់ណាស់ដែលអ្នកបង្កើតគោលនយោបាយបង្កើតច្បាប់ និងបទប្បញ្ញត្តិដែលការពារសិទ្ធិរបស់បុគ្គលទាំងអស់ និងដោះស្រាយយ៉ាងត្រឹមត្រូវនូវកង្វល់ទាំងនេះ"។ ក្រុមការងារកំពុងអំពាវនាវឱ្យសមាជិកសភាគ្រប់គ្រងកម្មវិធីរថយន្តបើកបរដោយខ្លួនឯង ដើម្បីការពារភាពលំអៀងនៅក្នុងប្រព័ន្ធរាវរករបស់ពួកគេ។
(យោងតាម Insider)
ប្រភព
Kommentar (0)