(Dan Tri) - ຈໍານວນຂໍ້ມູນທີ່ໃຊ້ໃນການຝຶກອົບຮົມປັນຍາປະດິດແມ່ນເກືອບຫມົດ, ບັງຄັບໃຫ້ນັກຄົ້ນຄວ້ານໍາໃຊ້ AI ເພື່ອຝຶກອົບຮົມເຊິ່ງກັນແລະກັນ. ນີ້ອາດຈະເປັນຄວາມກ້າວຫນ້າທີ່ຊ່ວຍໃຫ້ AI ລື່ນກາຍປັນຍາຂອງມະນຸດ.
Elon Musk ສະເໜີວິທີໃໝ່ໃນການພັດທະນາ AI ທີ່ອາດຈະເປັນອັນຕະລາຍ
ມະຫາເສດຖີເຕັກໂນໂລຢີ Elon Musk, ຜູ້ກໍ່ຕັ້ງບໍລິສັດປັນຍາປະດິດ xAI, ໄດ້ເປີດເຜີຍຂໍ້ມູນທີ່ຫນ້າຕົກໃຈກ່ຽວກັບຂະບວນການຝຶກອົບຮົມແລະການສຶກສາແບບຈໍາລອງຂອງປັນຍາປະດິດ (AI).
"ດຽວນີ້ພວກເຮົາ ໝົດ ປະລິມານຄວາມຮູ້ຂອງມະນຸດໃນການຝຶກອົບຮົມແລະການສຶກສາ AI. ໂດຍພື້ນຖານແລ້ວ, ສິ່ງນີ້ເກີດຂື້ນຕັ້ງແຕ່ປີທີ່ຜ່ານມາ," Elon Musk ຕອບໃນການ ສຳ ພາດທີ່ອອກອາກາດສົດໃນເຄືອຂ່າຍສັງຄົມ X ໃນວັນທີ 9 ມັງກອນ.
ຮູບແບບ AI ເຊັ່ນ GPT-4, Gemini, Grok ຫຼື Llama ... ໄດ້ຖືກຝຶກອົບຮົມໂດຍອີງໃສ່ຂໍ້ມູນຈໍານວນຫລາຍທີ່ເກັບກໍາຈາກອິນເຕີເນັດ, ຈາກວາລະສານວິທະຍາສາດ, ການສຶກສາທີ່ຈັດພີມມາ, ຂໍ້ມູນຜູ້ໃຊ້ໃນເຄືອຂ່າຍສັງຄົມ ...
Elon Musk ສະເຫນີການນໍາໃຊ້ຂໍ້ມູນ AI ເພື່ອຝຶກອົບຮົມ AI, ແຕ່ນີ້ມີຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຫຼາຍ (ຮູບແຕ້ມ: Getty).
ຢ່າງໃດກໍ່ຕາມ, ຈັງຫວະຂອງການພັດທະນາແບບຈໍາລອງ AI ແມ່ນໄວຫຼາຍຈົນວ່າຈໍານວນຂໍ້ມູນທີ່ມີຢູ່ແມ່ນບໍ່ພຽງພໍທີ່ຈະຝຶກອົບຮົມແລະເສີມຂະຫຍາຍຄວາມສະຫລາດຂອງຕົວແບບ AI ເຫຼົ່ານີ້.
ເພື່ອເອົາຊະນະບັນຫານີ້, Elon Musk ໄດ້ສະເຫນີການແກ້ໄຂ, ເຊິ່ງແມ່ນການປ່ຽນໄປສູ່ການນໍາໃຊ້ຂໍ້ມູນທີ່ສ້າງຂື້ນໂດຍ AI ເອງເພື່ອຝຶກອົບຮົມແບບຈໍາລອງ AI. ໃນຄໍາສັບຕ່າງໆອື່ນໆ, AI ສາມາດຝຶກອົບຮົມຕົນເອງແລະກັນແລະກັນໂດຍບໍ່ມີການອີງໃສ່ຂໍ້ມູນຂອງມະນຸດ.
"ວິທີດຽວທີ່ຈະແກ້ໄຂບັນຫານີ້ແມ່ນການເສີມຂໍ້ມູນສັງເຄາະທີ່ສ້າງຂຶ້ນໂດຍຕົວແບບ AI ດ້ວຍຕົນເອງແລະນໍາໃຊ້ຂໍ້ມູນນີ້ເພື່ອຝຶກອົບຮົມ AI ຕົວເອງ," Elon Musk ແບ່ງປັນ.
ລະບົບ AI ການຝຶກອົບຮົມດ້ວຍຕົນເອງໂດຍອີງໃສ່ຂໍ້ມູນສັງເຄາະທີ່ສ້າງຂຶ້ນໂດຍ AI ເອງຈະຊ່ວຍປະຫຍັດຄ່າໃຊ້ຈ່າຍໃນການພັດທະນາແລະຫຼຸດຜ່ອນການເພິ່ງພາອາໄສຂໍ້ມູນຂອງມະນຸດ. ອັນນີ້ເຮັດໃຫ້ຫຼາຍຄົນກັງວົນວ່າ AI ສາມາດຝຶກຝົນຕົນເອງໃຫ້ເໜືອກວ່າປັນຍາຂອງມະນຸດ, ເໜືອການຄວບຄຸມຂອງມະນຸດ.
ຢ່າງໃດກໍຕາມ, ຜູ້ຊ່ຽວຊານດ້ານປັນຍາປະດິດກ່າວວ່າການນໍາໃຊ້ຂໍ້ມູນສັງເຄາະທີ່ສ້າງຂຶ້ນໂດຍ AI ເອງເພື່ອຝຶກອົບຮົມແບບຈໍາລອງ AI ສາມາດຍຸບຕົວແບບເຫຼົ່ານີ້, ເມື່ອຂໍ້ມູນທີ່ສ້າງຂື້ນຂາດຄວາມຄິດສ້າງສັນ, ມີຄວາມລໍາອຽງ, ແລະບໍ່ໄດ້ຮັບການປັບປຸງດ້ວຍຂໍ້ມູນລ້າສຸດ.
Andrew Duncan, ຜູ້ ອຳ ນວຍການ AI ຢູ່ສະຖາບັນ Alan Turing ໃນອັງກິດກ່າວວ່າ "ເມື່ອທ່ານໃຊ້ຂໍ້ມູນສັງເຄາະເພື່ອຝຶກອົບຮົມແບບ AI, ການປະຕິບັດຂອງມັນຄ່ອຍໆຫຼຸດລົງ, ໂດຍຂໍ້ມູນຜົນຜະລິດແມ່ນບໍ່ມີແຮງບັນດານໃຈແລະມີຄວາມລໍາອຽງ," Andrew Duncan, ຜູ້ອໍານວຍການ AI ຢູ່ສະຖາບັນ Alan Turing ໃນອັງກິດ.
ຂໍ້ມູນທີ່ມີຄຸນນະພາບສູງໄດ້ຖືກເຫັນວ່າເປັນ "ຊັບພະຍາກອນຂຸດຄົ້ນບໍ່ແຮ່" ທີ່ບໍ່ມີຄ່າທີ່ບໍລິສັດພັດທະນາ AI ກໍາລັງແຂ່ງຂັນກັນ. ຢ່າງໃດກໍ່ຕາມ, ບໍ່ແມ່ນນັກວິທະຍາສາດທຸກຄົນເຕັມໃຈທີ່ຈະສະຫນອງການຄົ້ນຄວ້າຂອງພວກເຂົາເພື່ອຝຶກອົບຮົມແບບຈໍາລອງ AI.
ກູໂກສາມາດສ້າງ AI ທີ່ຄິດແລະປະຕິບັດຢ່າງແທ້ຈິງຄືກັບມະນຸດ
ຈິນຕະນາການວ່າມີວິທີການກໍານົດບຸກຄະລິກກະພາບ, ທັດສະນະຄະຕິ, ແລະຮູບແບບຂອງບຸກຄົນແລະຫຼັງຈາກນັ້ນສ້າງຕົວແບບ AI ຂອງບຸກຄົນນັ້ນ.
ນີ້ບໍ່ແມ່ນ fiction ວິທະຍາສາດ, ແຕ່ເປົ້າຫມາຍພື້ນຖານຂອງການສຶກສາພື້ນຖານໂດຍນັກຄົ້ນຄວ້າຢູ່ມະຫາວິທະຍາໄລ Stanford ແລະ Google.
ດ້ວຍການສໍາພາດພຽງແຕ່ 2 ຊົ່ວໂມງ, Google ສາມາດສ້າງ AI ທີ່ຄິດແລະປະຕິບັດຄືກັນກັບທ່ານ (ຮູບພາບ: ZipRecruiter).
ນັກຄົ້ນຄວ້າໄດ້ສ້າງແບບຈໍາລອງ AI ຂອງຜູ້ເຂົ້າຮ່ວມຫຼາຍກວ່າ 1,000 ຄົນໂດຍໃຊ້ຂໍ້ມູນຈາກການສໍາພາດທີ່ໃຊ້ເວລາພຽງແຕ່ 2 ຊົ່ວໂມງ. AIs ເຫຼົ່ານີ້ສາມາດ mimic ພຶດຕິກໍາຂອງມະນຸດ.
ທ່າແຮງການ ນຳ ໃຊ້ຂອງສິ່ງປະດິດນີ້ແມ່ນໃຫຍ່ຫຼວງ. ຜູ້ວາງນະໂຍບາຍແລະທຸລະກິດສາມາດນໍາໃຊ້ການຈໍາລອງ AI ນີ້ເພື່ອຄາດຄະເນປະຕິກິລິຍາສາທາລະນະຕໍ່ນະໂຍບາຍຫຼືຜະລິດຕະພັນໃຫມ່, ແທນທີ່ຈະອີງໃສ່ພຽງແຕ່ກຸ່ມຈຸດສຸມຫຼືການສໍາຫຼວດຊ້ໍາຊ້ອນ.
ນັກຄົ້ນຄວ້າເຊື່ອວ່າເທກໂນໂລຍີສາມາດຊ່ວຍຂຸດຄົ້ນໂຄງສ້າງສັງຄົມ, ການແຊກແຊງຂອງການທົດລອງ, ແລະພັດທະນາທິດສະດີການປະພຶດຂອງມະນຸດ.
ຢ່າງໃດກໍ່ຕາມ, ມັນຍັງມາພ້ອມກັບຄວາມສ່ຽງບາງຢ່າງເຊັ່ນ: ຄວາມກັງວົນກ່ຽວກັບຈັນຍາບັນກ່ຽວກັບການໃຊ້ໂຄນ AI ທີ່ບໍ່ຖືກຕ້ອງ. ນັກສະແດງທີ່ບໍ່ດີສາມາດຂູດຮີດ AI ນີ້ເພື່ອຈັດການຄວາມຄິດເຫັນຂອງປະຊາຊົນ, ປອມຕົວເປັນບຸກຄົນ, ຫຼືຈໍາລອງຄວາມປາດຖະຫນາຂອງປະຊາຊົນໂດຍອີງໃສ່ຂໍ້ມູນລວມປອມ.
ຄວາມກັງວົນເຫຼົ່ານີ້ຍັງເກີດຂື້ນພາຍໃຕ້ຄວາມກັງວົນທີ່ຍາວນານຂອງຫຼາຍໆຄົນວ່າການຂະຫຍາຍຕົວແບບ AI ທີ່ຄ້າຍຄືກັນສາມາດສົ່ງຜົນກະທົບທາງລົບຕໍ່ອະນາຄົດຂອງມະນຸດ.
ທີ່ມາ: https://dantri.com.vn/suc-manh-so/ai-sap-dat-duoc-buoc-dot-pha-moi-co-the-vuot-qua-tri-tue-con-nguoi-20250111132229246.htm
(0)