จริยธรรมของคนทำงานสื่อในการใช้เทคโนโลยี AI

Báo Quốc TếBáo Quốc Tế27/10/2024

เราอาศัยอยู่ในยุคของการปฏิวัติอุตสาหกรรม 4.0 ที่ปัญญาประดิษฐ์ (AI) ค่อยๆ กลายมาเป็นส่วนสำคัญที่ขาดไม่ได้ในหลายด้านของชีวิตทางสังคม สื่อมวลชนในฐานะที่เป็นสะพานเชื่อมข้อมูลระหว่างประชาชนกับเหตุการณ์ไม่สามารถอยู่นอกกระแสนั้นได้


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
คุณเหงียน ถิ ไห วัน ผู้อำนวยการศูนย์ฝึกอบรมนักข่าว สมาคมนักข่าวเวียดนาม ในการประชุมเชิงปฏิบัติการเกี่ยวกับเทคโนโลยี AI (ที่มา: สมาคมนักข่าวเวียดนาม)

เพื่อใช้ประโยชน์จากข้อดีของ AI ให้ได้มากที่สุด ผู้สื่อสารต้องเตรียมความรู้เพื่อใช้ AI อย่างมีประสิทธิภาพ ขณะเดียวกันก็ต้องรับประกันความน่าเชื่อถือและจริยธรรมในการส่งข้อมูลด้วย

จาก “ความร้อน” ของ AI

เป็นที่ชัดเจนอย่างมากว่า AI (ปัญญาประดิษฐ์) เป็นหนึ่งในคำสำคัญที่ได้รับความนิยมมากที่สุดในปัจจุบัน ในเดือนกันยายน พ.ศ. 2567 การค้นหาคีย์เวิร์ด “AI” บน Google ในเวลา 0.3 วินาที ได้ผลลัพธ์ 15,000 ล้าน 900 ล้านรายการ ด้วยคีย์เวิร์ด “เครื่องมือ AI” บันทึกผลลัพธ์ได้มากกว่า 3 พันล้าน 400 ล้านรายการในเวลา 0.4 วินาที ตัวเลขที่มากมายบ่งบอกถึงระดับการครอบคลุมและความสนใจใน AI และเครื่องมือที่ใช้ AI ทั่วโลก

ในปัจจุบันมีเครื่องมือ AI เกิดขึ้นมากขึ้นเรื่อยๆ สำหรับหลายสาขา รวมถึงอุตสาหกรรมสื่อด้วย นอกเหนือจาก ChatGPT ที่เป็นที่รู้จักกันอย่างแพร่หลายแล้วยังมีแอปพลิเคชัน AI อีกมากมายที่พัฒนาในทิศทางเฉพาะเพื่อรองรับงานเฉพาะทาง ไม่ใช่เรื่องยากเลยที่จะแสดงรายการเครื่องมือต่างๆ มากมายไว้ที่นี่ ตัวอย่างเช่น: Bing AI, Clause, Zapier Central สำหรับกลุ่มงาน Chatbot; Jasper, Copy.ai, Anyword สำหรับงานสร้างเนื้อหา; Descript, Wondershare, Runway สำหรับงานผลิตและตัดต่อวิดีโอ DALL-E3, Midjourney, การแพร่กระจายที่มั่นคงสำหรับงานด้านภาพที่สร้างสรรค์ Murf, AIVA สำหรับงานเนื้อหาเสียง ฯลฯ และล่าสุดยักษ์ใหญ่อย่าง Amazon ได้เปิดตัวเครื่องมือ AI ที่พัฒนาขึ้น ได้แก่ เครื่องสร้างวิดีโอและเครื่องสร้างภาพ ด้วยจุดมุ่งหมายเพื่อ "สร้างแรงบันดาลใจให้กับความคิดสร้างสรรค์และเพิ่มมูลค่าให้มากขึ้น"

แม้ว่าเครื่องมือ AI จะมีความหลากหลายในด้านขนาดและระดับความเชี่ยวชาญ แต่เทคโนโลยีนี้โดยพื้นฐานแล้วมีสองสิ่งที่เหมือนกัน: เครื่องมือ AI ได้รับการพัฒนาขึ้นโดยอิงตามอัลกอริทึมและข้อมูลเพื่อ "ฝึก" เครื่องมือ AI

การควบคุมจริยธรรมในการใช้ AI ในสื่อ

ไม่สามารถปฏิเสธได้ถึงความสะดวกสบายที่เครื่องมือ AI มอบให้ และด้วยความก้าวหน้าทางเทคโนโลยีที่รวดเร็ว จะมีเครื่องมือ AI เฉพาะทางมากขึ้นเรื่อยๆ ในทุกมุม เพื่อตอบสนองต่องานตั้งแต่ง่ายๆ ไปจนถึงงานซับซ้อนในอุตสาหกรรมสื่อ พร้อมๆ กับการพัฒนาที่ก้าวกระโดดนี้ ยังมีคำถามอีกมากมายที่เกิดขึ้นเกี่ยวกับประเด็นการควบคุมทางจริยธรรมในการพัฒนาและการใช้เครื่องมือ AI ในอุตสาหกรรมสื่อ? จะเกิดอะไรขึ้นถ้าอัลกอริทึมและข้อมูลของเครื่องมือ AI ถูกจัดการในลักษณะที่เป็นอันตรายต่อชุมชน? ใครเป็นเจ้าของสิทธิ์ในทรัพย์สินทางปัญญาของข้อมูลอินพุตที่เครื่องมือ AI ใช้สำหรับการฝึกอบรม? ใครเป็นผู้ประเมินระดับอันตรายที่เกิดขึ้น?

มีการไม่เท่าเทียมกันระหว่างกลุ่มคนที่สามารถเข้าถึงและกลุ่มคนที่ไม่สามารถเข้าถึงเครื่องมือ AI สำหรับงานเดียวกันหรือไม่ ยังมีคำถามเกี่ยวกับศักยภาพที่จะเกิดอันตรายที่ไม่สามารถควบคุมได้จากเครื่องมือ AI โดยเฉพาะในพื้นที่อ่อนไหวที่อาจส่งผลกระทบต่อคนจำนวนมากในวงกว้าง เช่น สื่อและเครือข่ายสังคมออนไลน์

เพื่อตระหนักถึงข้อกังวลดังกล่าวข้างต้น องค์กร สมาคม รัฐบาล และแม้แต่บริษัทและองค์กรต่างๆ มากมายที่พัฒนาเครื่องมือ AI ก็ได้ออกคำแนะนำ ข้อมูลอธิบาย และจรรยาบรรณที่สูงกว่าที่เกี่ยวข้องกับปัญหาของการควบคุมทางจริยธรรมในเทคโนโลยี AI ปฏิญญาว่าด้วยจริยธรรมของปัญญาประดิษฐ์ (UNESCO) องค์การการศึกษา วิทยาศาสตร์ และวัฒนธรรมแห่งสหประชาชาติ ซึ่งได้รับการรับรองโดยประเทศต่างๆ 193 ประเทศในปี 2564 ระบุว่า "การเติบโตอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ได้สร้างโอกาสมากมายทั่วโลก ตั้งแต่การช่วยในการวินิจฉัยทางการแพทย์ ไปจนถึงการเปิดโอกาสให้มนุษย์สามารถเชื่อมโยงกันผ่านโซเชียลมีเดีย และการสร้างประสิทธิภาพการทำงานผ่านการทำงานอัตโนมัติ"

อย่างไรก็ตาม การเปลี่ยนแปลงอย่างรวดเร็วเหล่านี้ยังก่อให้เกิดความกังวลด้านจริยธรรมอย่างลึกซึ้งอีกด้วย ความเสี่ยงที่เกี่ยวข้องกับ AI ดังกล่าวได้เริ่มทำให้ความไม่เท่าเทียมที่มีอยู่ทวีความรุนแรงขึ้น ส่งผลให้เกิดอันตรายเพิ่มเติมต่อกลุ่มที่เสียเปรียบอยู่แล้ว…” และจากนั้น “ขอให้ UNESCO พัฒนาเครื่องมือเพื่อสนับสนุนประเทศสมาชิก รวมถึงวิธีการประเมินความพร้อม ซึ่งเป็นเครื่องมือสำหรับรัฐบาลในการสร้างภาพรวมที่ครอบคลุมเกี่ยวกับความพร้อมในการใช้ AI อย่างมีจริยธรรมและรับผิดชอบต่อพลเมืองทุกคน”

UNESCO ได้เปิดตัว Global AI Ethics and Governance Observatory ซึ่งเป็นโครงการระดับโลกที่มีวัตถุประสงค์เพื่อให้ข้อมูลเกี่ยวกับความพร้อมของประเทศต่าง ๆ ในการนำ AI มาใช้อย่างมีจริยธรรมและมีความรับผิดชอบ โครงการนี้ยังเป็นเจ้าภาพจัด AI Ethics and Governance Lab ซึ่งรวบรวมการสนับสนุน การวิจัยที่มีผลกระทบ ชุดเครื่องมือ และแนวทางปฏิบัติที่ดำเนินการอยู่เกี่ยวกับปัญหาทางจริยธรรมของ AI ที่หลากหลาย…”

นอกเหนือจากองค์กรระดับโลกอย่าง UNESCO แล้ว สมาคมวิชาชีพหลายแห่งก็พยายามพัฒนาจรรยาบรรณของตนเองเช่นกัน ตัวอย่างเช่น IABC - International Association of Business Communications สมาคมที่มีสมาชิกหลายพันคนจากทั่วโลก ได้เปิดตัวแนวปฏิบัติสำหรับการใช้ AI อย่างถูกต้องตามจริยธรรมโดยผู้เชี่ยวชาญด้านการสื่อสาร ซึ่งมีจุดมุ่งหมายเพื่อให้คำแนะนำแก่สมาชิก IABC เกี่ยวกับความเกี่ยวข้องของจรรยาบรรณของ IABC กับ AI แนวทางเหล่านี้อาจได้รับการอัปเดตและเพิ่มเติมตามกาลเวลาขึ้นอยู่กับการพัฒนาของเทคโนโลยี AI ภายในจรรยาบรรณฉบับนี้ มีประเด็นเฉพาะมากมายที่ผู้เชี่ยวชาญด้านการสื่อสารควรยึดถือ เช่น:

“ทรัพยากร AI ที่ใช้ต้องขับเคลื่อนโดยมนุษย์เพื่อสร้างประสบการณ์เชิงบวกและโปร่งใสซึ่งปลูกฝังความเคารพและสร้างความไว้วางใจในอาชีพสื่อ” สิ่งสำคัญคือต้องคอยอัปเดตเกี่ยวกับโอกาสทางอาชีพและความเสี่ยงที่เครื่องมือ AI นำเสนอ จำเป็นต้องสื่อสารข้อมูลอย่างถูกต้อง ชัดเจน และเป็นธรรม เครื่องมือ AI อาจประสบปัญหาข้อบกพร่อง ความไม่สอดคล้อง และปัญหาทางเทคนิคอื่นๆ มากมาย ต้องใช้การตัดสินใจของมนุษย์เพื่อตรวจยืนยันอย่างเป็นอิสระว่าเนื้อหาที่ฉันสร้างขึ้นโดย AI นั้นถูกต้อง โปร่งใส และไม่มีการลอกเลียนแบบ

ปกป้องข้อมูลส่วนบุคคลและหรือข้อมูลลับของผู้อื่น และจะไม่ใช้ข้อมูลนี้โดยไม่ได้รับอนุญาต ประเมินผลลัพธ์ AI ของคุณโดยอิงจากการมีส่วนร่วมของมนุษย์และความเข้าใจในชุมชนที่คุณตั้งเป้าหมายที่จะให้บริการ ขจัดอคติให้ดีที่สุดตามความสามารถและคำนึงถึงค่านิยมทางวัฒนธรรมและความเชื่อของผู้อื่น

จะต้องตรวจสอบข้อเท็จจริงและยืนยันผลลัพธ์ด้วยตนเองด้วยความเข้มงวดทางวิชาชีพที่จำเป็น เพื่อให้แน่ใจว่าเอกสาร ข้อมูล หรือการอ้างอิงของบุคคลที่สามนั้นถูกต้อง มีการระบุแหล่งที่มาและการตรวจยืนยันที่จำเป็น และได้รับใบอนุญาตหรือได้รับอนุญาตให้ใช้อย่างครบถ้วน อย่าพยายามซ่อนหรืออำพรางการใช้ AI ในผลงานทางวิชาชีพของคุณ รับทราบถึงธรรมชาติของ AI ในรูปแบบโอเพนซอร์สและข้อกังวลด้านความปลอดภัยที่เกี่ยวข้อง รวมถึงการป้อนข้อมูลเท็จ ทำให้เข้าใจผิด หรือหลอกลวง...

สำหรับบริษัทและองค์กรที่เป็นเจ้าของ พัฒนา และซื้อขายเครื่องมือ AI พวกเขาคือผู้ที่เข้าใจข้อดีข้อเสียของเครื่องมือ AI ดีกว่าใครๆ พวกเขารู้เกี่ยวกับอัลกอริธึมพื้นฐานที่เครื่องมือ AI ใช้งานและข้อมูลที่ใช้ในการฝึกเครื่องมือ AI ดังนั้น บริษัทเหล่านี้จึงจำเป็นต้องให้ข้อมูลที่เกี่ยวข้องกับหลักจริยธรรมในการพัฒนา AI ด้วย จริงๆ แล้วมีบริษัทที่สนใจในประเด็นนี้อยู่

Google มุ่งมั่นที่จะไม่พัฒนาเครื่องมือ AI สำหรับพื้นที่ที่มีความเสี่ยงต่ออันตรายอย่างมีนัยสำคัญ และจะดำเนินการเมื่อเราเชื่อว่าผลประโยชน์นั้นมีมากกว่าความเสี่ยงอย่างมาก และรวมข้อจำกัดด้านความปลอดภัยที่เหมาะสมไว้ด้วย อาวุธหรือเทคโนโลยีอื่น ๆ ที่มีจุดประสงค์หลักหรือการใช้งานเพื่อก่อให้เกิดหรืออำนวยความสะดวกให้เกิดการบาดเจ็บของมนุษย์โดยตรง เทคโนโลยีที่รวบรวมหรือใช้ข้อมูลเพื่อการเฝ้าระวังถือเป็นการละเมิดบรรทัดฐานที่ยอมรับในระดับสากล เทคโนโลยีที่ตั้งใจละเมิดหลักการที่ได้รับการยอมรับอย่างกว้างขวางของกฎหมายระหว่างประเทศและสิทธิมนุษยชน

ในด้านของการรักษาความปลอดภัย Google ให้คำมั่นว่า “เราจะพัฒนาและนำมาตรการรักษาความปลอดภัยที่แข็งแกร่งมาใช้อย่างต่อเนื่อง เพื่อหลีกเลี่ยงผลลัพธ์ที่ไม่ได้ตั้งใจซึ่งก่อให้เกิดความเสี่ยงต่ออันตราย” เราจะออกแบบระบบ AI ให้มีการระมัดระวังอย่างเหมาะสมและพยายามพัฒนาให้สอดคล้องกับแนวปฏิบัติที่ดีที่สุดในการวิจัยความปลอดภัยของ AI เราจะนำหลักการความเป็นส่วนตัวของเราไปใช้ในการพัฒนาและใช้เทคโนโลยี AI ของเรา เราจะสร้างโอกาสในการแจ้งเตือนและยินยอม สนับสนุนสถาปัตยกรรมที่ปกป้องความเป็นส่วนตัว และให้ความโปร่งใสและการควบคุมที่เหมาะสมต่อการใช้ข้อมูล”

เช่นเดียวกับ Google, Microsoft ก็ได้ออกแถลงการณ์เกี่ยวกับหลักการและแนวทาง AI โดยเน้นย้ำว่า “เรามุ่งมั่นที่จะทำให้แน่ใจว่าระบบ AI ได้รับการพัฒนาอย่างมีความรับผิดชอบและในลักษณะที่สร้างความไว้วางใจให้กับผู้คน...” นอกจากนี้ บริษัทเทคโนโลยีขนาดใหญ่หลายแห่งที่ลงทุนอย่างหนักในการพัฒนาเครื่องมือ AI เช่น Amazon และ OpenAI ก็ได้ให้คำมั่นสัญญาของตนเองเช่นกัน

ตัวอย่างมากมายในประวัติศาสตร์ได้พิสูจน์ให้เห็นถึงธรรมชาติสองด้านของเทคโนโลยี ซึ่งประกอบด้วยองค์ประกอบเชิงบวกและองค์ประกอบเชิงลบที่มากับมัน แม้ว่า AI จะเป็นแพลตฟอร์มเทคโนโลยีที่มี “เทคโนโลยีขั้นสูง” มาก แต่ AI ก็ยังคงขึ้นอยู่กับอัลกอริธึมและข้อมูลที่พัฒนาและรวบรวมโดยมนุษย์ ในเวลาเดียวกัน ผลิตภัณฑ์ AI ส่วนใหญ่ยังเป็นส่วนหนึ่งของแผนธุรกิจของบริษัทที่เป็นเจ้าของอีกด้วย

ดังนั้นจึงมีความเสี่ยงที่อาจเกิดขึ้นอยู่เสมอทั้งจากด้านเทคนิคและจากทีมพัฒนาและจัดการผลิตภัณฑ์ ปัญหาที่นี่คือผลกระทบอันใหญ่หลวงที่เครื่องมือ AI อาจส่งผลต่อมวลชนได้ แม้แต่ในระดับเศรษฐกิจและสังคมของชุมชนก็ตาม การให้ความใส่ใจต่อการควบคุมจริยธรรมอย่างทันท่วงทีเมื่อใช้เทคโนโลยี AI ถือเป็นสัญญาณที่ดีเมื่อได้รับการมีส่วนร่วมจากองค์กรระหว่างประเทศขนาดใหญ่ เช่น องค์การสหประชาชาติ รัฐบาล สมาคมอุตสาหกรรม และที่สำคัญที่สุดคือในหน่วยงานพัฒนาเทคโนโลยี

อย่างไรก็ตาม ในขณะที่รายการเครื่องมือ AI มักจะปล่อยเวอร์ชันใหม่ๆ ออกมาอย่างต่อเนื่อง ซึ่งแต่ละเวอร์ชันก็มีความซับซ้อนและซับซ้อนกว่าเวอร์ชันก่อนหน้า โค้ด หลักการ หรือแนวปฏิบัติก็จำเป็นต้องได้รับการอัปเดตและเพิ่มเติมอย่างทันท่วงที และยิ่งไปกว่านั้น ต้องมีความกระตือรือร้นในการป้องกัน จำกัด และควบคุมหน่วยพัฒนาผลิตภัณฑ์และผู้ใช้ภายในกรอบการทำงานที่ความสามารถในการปฏิบัติตามการควบคุมทางจริยธรรมในเทคโนโลยี AI โดยทั่วไปและโดยเฉพาะอย่างยิ่งผู้ปฏิบัติงานด้านสื่อสามารถบรรลุประสิทธิภาพสูงสุดได้



แหล่งที่มา

การแสดงความคิดเห็น (0)

No data
No data

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

ท่าม้า ธารดอกไม้มหัศจรรย์กลางขุนเขาและป่าก่อนวันเปิดงาน
ต้อนรับแสงแดดที่หมู่บ้านโบราณ Duong Lam
ศิลปินชาวเวียดนามและแรงบันดาลใจในการส่งเสริมวัฒนธรรมการท่องเที่ยว
การเดินทางของผลิตภัณฑ์ทางทะเล

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

กระทรวง-สาขา

ท้องถิ่น

ผลิตภัณฑ์