JPMorgan Chase ธนาคารที่ใหญ่ที่สุดของอเมริกา Amazon และบริษัทเทคโนโลยี Accenture ต่างห้ามพนักงานใช้ ChatGPT ด้วยเหตุผลด้านความปลอดภัยของข้อมูล
ตามรายงานของ CNN ความกังวลของธุรกิจเหล่านี้มีความสมเหตุสมผลอย่างยิ่ง เมื่อวันที่ 20 มีนาคม ระบบแชทบอทของ OpenAI เกิดการขัดข้องและเปิดเผยข้อมูลผู้ใช้ แม้ว่าข้อบกพร่องจะได้รับการแก้ไขอย่างรวดเร็ว แต่บริษัทได้เปิดเผยว่าปัญหาดังกล่าวส่งผลกระทบต่อผู้ใช้ ChatGPT Plus 1.2% ข้อมูลที่รั่วไหลประกอบไปด้วยชื่อนามสกุล ที่อยู่อีเมล ที่อยู่เรียกเก็บเงิน สี่หลักสุดท้ายของหมายเลขบัตรเครดิต และวันที่หมดอายุบัตร
เมื่อวันที่ 31 มีนาคม สำนักงานคุ้มครองข้อมูลของอิตาลี (Garante) ได้ออกคำสั่งห้าม ChatGPT เป็นการชั่วคราว โดยอ้างถึงปัญหาความเป็นส่วนตัว หลังจากที่ OpenAI เปิดเผยช่องโหว่ดังกล่าว
Mark McCreary รอง ประธานฝ่ายความปลอดภัยข้อมูลและความเป็นส่วนตัวของสำนักงานกฎหมาย Fox Rothschild LLP บอกกับ CNN ว่าข้อกังวลด้านความปลอดภัยที่เกี่ยวข้องกับ ChatGPT นั้นไม่ได้ถูกพูดเกินจริงเลย เขาเปรียบเทียบ AI chatbot ว่าเป็นเหมือน “กล่องดำ”
OpenAI เปิดตัว ChatGPT ในเดือนพฤศจิกายน 2022 และดึงดูดความสนใจได้อย่างรวดเร็วเนื่องจากความสามารถในการเขียนเรียงความ แต่งเรื่องราว หรือเนื้อเพลงโดยการสั่งการ (คำสั่ง) บริษัทยักษ์ใหญ่ด้านเทคโนโลยี เช่น Google และ Microsoft ได้เปิดตัวเครื่องมือ AI ที่ทำงานคล้ายกัน โดยขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ที่ได้รับการฝึกอบรมจากที่เก็บข้อมูลออนไลน์จำนวนมาก
ตามมาด้วยอิตาลี เยอรมนีกำลังพิจารณาแบน ChatGPT
นายแม็คครีย์กล่าวเสริมว่า เมื่อผู้ใช้ป้อนข้อมูลลงในเครื่องมือเหล่านี้ พวกเขาไม่ทราบว่าข้อมูลนั้นจะถูกนำไปใช้งานอย่างไรต่อไป เรื่องนี้เป็นเรื่องที่น่ากังวลสำหรับบริษัทต่างๆ เนื่องจากพนักงานมากขึ้นเรื่อยๆ ใช้เครื่องมือต่างๆ เพื่อเขียนอีเมลงานหรือจดบันทึกสำหรับการประชุม ซึ่งส่งผลให้มีความเสี่ยงในการเปิดเผยความลับทางการค้าเพิ่มมากขึ้น
Steve Mills ผู้อำนวยการด้านจริยธรรม AI ของ Boston Consulting Group (BCG) กล่าวว่าบริษัทต่างๆ กังวลว่าพนักงานจะเปิดเผยข้อมูลละเอียดอ่อนโดยไม่ได้ตั้งใจ หากข้อมูลที่ผู้คนป้อนเข้าไปถูกใช้เพื่อฝึกเครื่องมือ AI นี้ ก็แสดงว่าพวกเขาจะสูญเสียการควบคุมข้อมูลดังกล่าวให้กับผู้อื่น
ตามนโยบายความเป็นส่วนตัวของ OpenAI บริษัทอาจรวบรวมข้อมูลส่วนบุคคลและข้อมูลของผู้ใช้บริการทั้งหมดเพื่อปรับปรุงโมเดล AI พวกเขาอาจใช้ข้อมูลนี้เพื่อปรับปรุงหรือวิเคราะห์บริการ ดำเนินการวิจัย สื่อสารกับผู้ใช้ และพัฒนาโปรแกรมและบริการใหม่ๆ
นโยบายความเป็นส่วนตัวระบุว่า OpenAI อาจให้ข้อมูลส่วนบุคคลแก่บุคคลที่สามโดยไม่ต้องแจ้งให้ผู้ใช้ทราบ เว้นแต่กฎหมายจะกำหนดไว้ OpenAI ยังมีเอกสารข้อกำหนดในการให้บริการของตนเอง แต่บริษัทก็มอบความรับผิดชอบส่วนใหญ่ให้กับผู้ใช้ในการดำเนินการที่เหมาะสมเมื่อโต้ตอบกับเครื่องมือ AI
เจ้าของ ChatGPT มีโพสต์บล็อกเกี่ยวกับแนวทางของตนต่อความปลอดภัยของ AI บริษัทเน้นย้ำว่าจะไม่นำข้อมูลไปขายบริการ โฆษณา หรือสร้างโปรไฟล์ของผู้ใช้ แต่ OpenAI จะใช้ข้อมูลเพื่อสร้างโมเดลให้มีประโยชน์มากขึ้น ตัวอย่างเช่น บทสนทนาของผู้ใช้จะถูกใช้เพื่อฝึก ChatGPT
นโยบายความเป็นส่วนตัวของ ChatGPT ถือว่าคลุมเครือมาก
นโยบายความเป็นส่วนตัวของ Google ซึ่งเป็นบริษัทที่พัฒนาเครื่องมือ Bard AI มีข้อกำหนดเพิ่มเติมสำหรับผู้ใช้ AI บริษัทจะเลือกส่วนเล็กๆ ของการสนทนาและใช้เครื่องมืออัตโนมัติเพื่อลบข้อมูลที่สามารถระบุตัวตนได้ แนวทางนี้ช่วยปรับปรุง Bard และปกป้องความเป็นส่วนตัวของผู้ใช้
บทสนทนาตัวอย่างจะได้รับการตรวจสอบโดยผู้ฝึกสอนและเก็บรักษาไว้สูงสุด 3 ปี แยกจากบัญชี Google ของผู้ใช้ Google ยังเตือนผู้ใช้ไม่ให้ใส่ข้อมูลส่วนบุคคลเกี่ยวกับตนเองหรือผู้อื่นในการสนทนาบน Bard AI ยักษ์ใหญ่ด้านเทคโนโลยีเน้นย้ำว่าจะไม่ใช้บทสนทนาเหล่านี้เพื่อวัตถุประสงค์ทางการโฆษณา และจะประกาศการเปลี่ยนแปลงในอนาคต
Bard AI ช่วยให้ผู้ใช้สามารถเลือกไม่บันทึกบทสนทนาลงในบัญชี Google ของตนได้ และยังสามารถตรวจสอบหรือลบบทสนทนาได้ผ่านลิงก์ นอกจากนี้ บริษัทมีมาตรการการป้องกันที่ออกแบบมาเพื่อป้องกันไม่ให้ Bard รวมข้อมูลส่วนบุคคลไว้ในการตอบกลับ
Steve Mills โต้แย้งว่าบางครั้งผู้ใช้และนักพัฒนาจะค้นพบความเสี่ยงด้านความปลอดภัยที่ซ่อนอยู่ในเทคโนโลยีใหม่ๆ เมื่อมันสายเกินไปแล้ว ตัวอย่างเช่น การกรอกอัตโนมัติอาจเปิดเผยหมายเลขประกันสังคมของผู้ใช้โดยไม่ได้ตั้งใจ
นายมิลส์กล่าวว่า ผู้ใช้ไม่ควรใส่สิ่งใด ๆ ลงในเครื่องมือเหล่านี้ที่พวกเขาไม่ต้องการให้แบ่งปันกับผู้อื่น
ลิงค์ที่มา
การแสดงความคิดเห็น (0)