ໃນການປັບປຸງຫຼັກການ AI (ປັນຍາປະດິດ) ທີ່ປ່ອຍອອກມາໃຫມ່, ບໍລິສັດແມ່ຂອງ Google Alphabet ໄດ້ສົນທະນາກ່ຽວກັບວິທີການທີ່ຈະໃຊ້ AI ໃນອະນາຄົດ. ສິ່ງທີ່ໂດດເດັ່ນທີ່ສຸດ, ຄໍາສັນຍາທີ່ຈະບໍ່ໃຊ້ AI ເພື່ອສ້າງອາວຸດ, ເຄື່ອງມືເຝົ້າລະວັງ, ຫຼື "ເຕັກໂນໂລຢີທີ່ອາດຈະເຮັດໃຫ້ເກີດອັນຕະລາຍທົ່ວໄປ" ໄດ້ຖືກໂຍກຍ້າຍ.
AI Red Line ຂອງ Google
ຄໍາວ່າ AI ເສັ້ນສີແດງຂອງ Google ເກີດຂຶ້ນຄັ້ງທໍາອິດໃນປີ 2018, ເມື່ອພະນັກງານຂອງບໍລິສັດປະທ້ວງໂຄງການ Maven AI ໃນການຮ່ວມມືກັບກະຊວງປ້ອງກັນປະເທດສະຫະລັດ. ໃນເວລານັ້ນ, ພະນັກງານ Google ຫຼາຍກວ່າ 4,000 ຄົນໄດ້ລົງນາມໃນຄໍາຮ້ອງຟ້ອງເພື່ອຢຸດໂຄງການແລະຂໍໃຫ້ບໍລິສັດບໍ່ເຄີຍ "ສ້າງເຕັກໂນໂລຢີສໍາລັບສົງຄາມ".
Google ຫຼັງຈາກນັ້ນບໍ່ໄດ້ຕໍ່ສັນຍາເພື່ອສ້າງເຄື່ອງມື AI ສໍາລັບ Pentagon. ບໍລິສັດຍັງໄດ້ແຕ້ມເສັ້ນສີແດງ, ປະກາດ "ຄໍາຮ້ອງສະຫມັກທີ່ບໍ່ປະຕິບັດຕາມ" ທີ່ກ່ຽວຂ້ອງກັບ AI, ລວມທັງອາວຸດແລະເຕັກໂນໂລຢີທີ່ເກັບກໍາຫຼືນໍາໃຊ້ຂໍ້ມູນສໍາລັບການເຝົ້າລະວັງທີ່ລະເມີດມາດຕະຖານທີ່ຍອມຮັບຈາກສາກົນ. ເທັກໂນໂລຍີທີ່ເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍ ຫຼືອາດຈະເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍຕໍ່ສາທາລະນະ, ລະເມີດຫຼັກການທີ່ຍອມຮັບໂດຍທົ່ວໄປຂອງກົດໝາຍສາກົນ ແລະສິດທິມະນຸດ, ຈະບໍ່ຖືກນຳໃຊ້ໂດຍ Google.
ບາງແອັບ Google ໃນ iPhone
ການຕັດສິນໃຈແຕ້ມເສັ້ນສີແດງກ່ຽວກັບ AI ດ້ວຍອາວຸດໄດ້ຮັກສາ Google ຈາກການເຂົ້າຮ່ວມໃນຂໍ້ຕົກລົງການທະຫານທີ່ລົງນາມໂດຍຍັກໃຫຍ່ເຕັກໂນໂລຢີອື່ນໆ, ລວມທັງ Amazon ແລະ Microsoft.
ຢ່າງໃດກໍ່ຕາມ, ປະເຊີນກັບການປ່ຽນແປງອັນໃຫຍ່ຫຼວງໃນການແຂ່ງຂັນ AI, Google ໄດ້ຕັດສິນໃຈຖອນຄໍາສັນຍາຂອງຕົນ. ນີ້ໄດ້ເຮັດໃຫ້ເກີດຄວາມຂັດແຍ້ງຫຼາຍບໍ່ພຽງແຕ່ພາຍໃນ Google ແຕ່ຍັງສະແດງໃຫ້ເຫັນເຖິງການປ່ຽນແປງທີ່ສໍາຄັນຂອງບໍລິສັດເຕັກໂນໂລຢີ Silicon Valley ໃນອຸດສາຫະກໍາປ້ອງກັນປະເທດ.
Google ຖືກແບ່ງອອກພາຍໃນ
ອີງຕາມ ການ Business Insider , ການປັບປຸງກ່ຽວກັບຫຼັກການ AI ແລະຈັນຍາບັນໄດ້ເຮັດໃຫ້ເກີດການປະທ້ວງຢ່າງແຂງແຮງຈາກພະນັກງານຂອງ Google. ພະນັກງານຂອງບໍລິສັດສະແດງຄວາມອຸກອັ່ງຢູ່ໃນກະດານຂໍ້ຄວາມພາຍໃນ. meme ອະທິບາຍ CEO Sundar Pichai ຖາມເຄື່ອງຈັກຊອກຫາຂອງ Google ດ້ວຍຄໍາຖາມ "ວິທີການກາຍເປັນຜູ້ຮັບເຫມົາອາວຸດ?" ໄດ້ຮັບຄວາມສົນໃຈຫຼາຍ
ພະນັກງານອີກຄົນຫນຶ່ງໄດ້ສ້າງ meme ຖາມວ່າ, "ພວກເຮົາແມ່ນຄົນທີ່ບໍ່ດີສໍາລັບການຍົກເລີກການຫ້າມ AI ສໍາລັບອາວຸດແລະການເຝົ້າລະວັງ?" ປະຈຸບັນ, ບໍລິສັດມີພະນັກງານຫຼາຍກວ່າ 180,000 ຄົນ. ອາດຈະຍັງມີຫຼາຍສຽງທີ່ສະຫນັບສະຫນູນການຕັດສິນໃຈຂອງ Google ທີ່ຈະເຮັດວຽກຢ່າງໃກ້ຊິດກັບລັດຖະບານສະຫະລັດແລະລູກຄ້າທາງທະຫານແລະປ້ອງກັນປະເທດຂອງຕົນ.
ເຫດຜົນຂອງ Google
ໂຄສົກຂອງ Google ຍັງບໍ່ທັນໄດ້ໃຫ້ຄໍາເຫັນຢ່າງເປັນທາງການກ່ຽວກັບການຖອນຕົວຂອງ "ສັນຍາ AI." ຢ່າງໃດກໍຕາມ, ຫົວຫນ້າຂອງ AI, Demis Hassabis, ກ່າວວ່າຄໍາແນະນໍາໄດ້ຖືກພັດທະນາໃນໂລກທີ່ມີການປ່ຽນແປງແລະ AI ຈະ "ປົກປ້ອງຄວາມປອດໄພແຫ່ງຊາດ".
ໃນການຕອບ blog ຂອງບໍລິສັດ, Hassabis ແລະ James Manyika, ຮອງປະທານອາວຸໂສດ້ານເຕັກໂນໂລຢີແລະສັງຄົມຂອງ Google, ກ່າວວ່າຍ້ອນວ່າການແຂ່ງຂັນໃນທົ່ວໂລກສໍາລັບການເປັນຜູ້ນໍາໃນ AI ເພີ່ມຂຶ້ນ, Google ເຊື່ອວ່າ AI ຄວນຖືກນໍາພາໂດຍເສລີພາບ, ຄວາມສະເຫມີພາບ, ແລະການເຄົາລົບສິດທິມະນຸດ.
"ພວກເຮົາເຊື່ອວ່າບໍລິສັດ, ລັດຖະບານ, ແລະອົງການຈັດຕັ້ງແບ່ງປັນຄຸນຄ່າແລະຄວນເຮັດວຽກຮ່ວມກັນເພື່ອສ້າງ AI ທີ່ສາມາດປົກປ້ອງປະຊາຊົນ, ຊຸກຍູ້ການເຕີບໂຕຂອງໂລກ, ແລະສະຫນັບສະຫນູນຄວາມປອດໄພແຫ່ງຊາດ," ເຂົາເຈົ້າກ່າວຕື່ມວ່າ.
ຜູ້ບໍລິຫານຂອງ Google ສອງຄົນກ່າວວ່າຫຼາຍຕື້ຄົນກໍາລັງໃຊ້ AI ໃນຊີວິດປະຈໍາວັນຂອງພວກເຂົາ. ປັນຍາປະດິດໄດ້ກາຍເປັນເຕັກໂນໂລຢີທີ່ຫຼາກຫຼາຍ, ເປັນເວທີທີ່ອົງການຈັດຕັ້ງແລະບຸກຄົນນັບບໍ່ຖ້ວນໃຊ້ເພື່ອສ້າງຄໍາຮ້ອງສະຫມັກ. AI ໄດ້ຍ້າຍຈາກຫົວຂໍ້ການຄົ້ນຄວ້າ niche ໃນຫ້ອງທົດລອງເປັນເຕັກໂນໂລຊີທີ່ມີຢູ່ທົ່ວທຸກແຫ່ງເຊັ່ນໂທລະສັບມືຖືແລະອິນເຕີເນັດ. ດັ່ງນັ້ນ, "AI oath" ຂອງ Google ຈາກ 2018 ຍັງຕ້ອງໄດ້ຮັບການປັບປຸງຕາມຄວາມເຫມາະສົມ.
Alphabet ກ່າວວ່າມັນມີແຜນທີ່ຈະໃຊ້ຈ່າຍ 75 ຕື້ໂດລາໃນປີຫນ້າ, ສ່ວນໃຫຍ່ເພື່ອສ້າງຄວາມສາມາດຂອງ AI ແລະໂຄງສ້າງພື້ນຖານ.
ທີ່ມາ: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
(0)