SGGPO
Kaspersky ນໍາສະເຫນີຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການນໍາໃຊ້ປັນຍາປະດິດ (AI) ຫຼືການຮຽນຮູ້ເຄື່ອງຈັກ (ML) ໃນການພັດທະນາແລະການນໍາໃຊ້ລະບົບຂອງບໍລິສັດເພື່ອເສີມຂະຫຍາຍຄໍາຫມັ້ນສັນຍາຂອງຕົນໃນການພັດທະນາເຕັກໂນໂລຢີຢ່າງມີຄວາມຮັບຜິດຊອບແລະໂປ່ງໃສ.
Kaspersky ໄດ້ໃຊ້ ML algorithms - ຊຸດຍ່ອຍຂອງ AI - ໃນການແກ້ໄຂວິສາຫະກິດຂອງຕົນເປັນເວລາເກືອບ 20 ປີ. |
ໃນຂະນະທີ່ບົດບາດຂອງ AI algorithms ກາຍເປັນທີ່ໂດດເດັ່ນໃນການຮັກສາຄວາມປອດໄພທາງອິນເຕີເນັດ, ຫຼັກການໃນປື້ມສີຂາວຂອງ Kaspersky ອະທິບາຍວ່າທຸລະກິດສາມາດຮັບປະກັນຄວາມຫນ້າເຊື່ອຖືຂອງເຕັກໂນໂລຢີ AI ແລະແນະນໍາບໍລິສັດໃນອຸດສາຫະກໍາເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ກ່ຽວຂ້ອງກັບການນໍາໃຊ້ AI / ML algorithms.
ການລວມເອົາປັນຍາປະດິດ ແລະຄວາມຊ່ຽວຊານຂອງມະນຸດ ຊ່ວຍໃຫ້ການແກ້ໄຂ Kaspersky ມີປະສິດຕິຜົນໃນການກວດຫາ ແລະຕໍ່ສູ້ກັບໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດທີ່ຫຼາກຫຼາຍ. ໃນບັນດາພວກເຂົາ, ML ມີບົດບາດສໍາຄັນໃນການກວດສອບໄພຂົ່ມຂູ່ແລະການກໍານົດຄວາມຜິດປົກກະຕິໂດຍອັດຕະໂນມັດ, ແລະປັບປຸງຄວາມຖືກຕ້ອງຂອງການກວດສອບ malware.
ເພື່ອຊຸກຍູ້ການປະດິດສ້າງ, Kaspersky ໄດ້ພັດທະນາຫຼັກການດ້ານຈັນຍາບັນສໍາລັບການພັດທະນາແລະການນໍາໃຊ້ AI / ML. ຫຼັກການເຫຼົ່ານີ້ຍັງຖືກແບ່ງປັນສາທາລະນະກັບອຸດສາຫະກໍາທີ່ເປັນເຄື່ອງມືການທູດຫຼາຍຝ່າຍເພື່ອຮັບປະກັນວ່າ AI ຖືກນໍາໃຊ້ຢ່າງສະຫລາດເພື່ອສ້າງໂລກທີ່ດີກວ່າ.
ຫຼັກການຄວາມໂປ່ງໃສສະທ້ອນເຖິງຄວາມເຊື່ອອັນແຮງກ້າຂອງ Kaspersky ທີ່ບໍລິສັດຄວນແຈ້ງໃຫ້ລູກຄ້າຂອງເຂົາເຈົ້າຮູ້ກ່ຽວກັບເຕັກໂນໂລຊີ AI/ML ທີ່ໃຊ້ໃນຜະລິດຕະພັນ ແລະການບໍລິການ. Kaspersky ປະຕິບັດຕາມຫຼັກການນີ້ໂດຍການພັດທະນາລະບົບ AI/ML ທີ່ງ່າຍຕໍ່ການໃຊ້ເທົ່າທີ່ເປັນໄປໄດ້, ແບ່ງປັນຂໍ້ມູນກັບພາກສ່ວນກ່ຽວຂ້ອງກ່ຽວກັບວິທີການແກ້ໄຂບັນຫາແລະວິທີການທີ່ Kaspersky ນໍາໃຊ້ເຕັກໂນໂລຢີ AI / MI.
ອີງຕາມການ Kaspersky, ເພື່ອອໍານວຍຄວາມສະດວກໃນການພັດທະນາແລະການນໍາໃຊ້ AI / ML, ຫຼັກການ 6 ຕໍ່ໄປນີ້ຕ້ອງໄດ້ຮັບການພິຈາລະນາ: ຄວາມໂປ່ງໃສ, ຄວາມປອດໄພ; ການຄວບຄຸມຂອງມະນຸດ; ຄວາມເປັນສ່ວນຕົວ; ຄໍາຫມັ້ນສັນຍາທີ່ຈະນໍາໃຊ້ສໍາລັບຈຸດປະສົງຄວາມປອດໄພ cyber; ເປີດການສົນທະນາ...
ທີ່ມາ
(0)