Doanh nghiệp cần thận trọng về việc tích hợp các công cụ AI vào hoạt động kinh doanh khi hacker dễ dàng qua mặt chatbot AI và thực hiện những nhiệm vụ độc hại.
Trong bài đăng trên blog hôm 30/8, Trung tâm An ninh mạng Vương quốc Anh (NCSC) cho biết, các chuyên gia hiện vẫn chưa thể nắm bắt hết các vấn đề an ninh mạng tiềm ẩn liên quan đến những thuật toán có thể tương tác “giống con người”, được gọi là mô hình ngôn ngữ lớn (LLM).
NCSC cảnh báo điều này có thể mang đến những rủi ro, đặc biệt khi các mô hình như vậy được đưa vào quy trình kinh doanh của doanh nghiệp. Các nhà học giả và nghiên cứu gần đây cũng đã liên tục tìm ra cách “đánh lừa” AI, bằng cách đưa cho chúng những lệnh lừa đảo hay phá vỡ các rào chắn bảo vệ được tích hợp sẵn.
Công cụ tích hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ các hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ khách hàng hay cuộc gọi bán hàng. |
Ví dụ, một chatbot AI được đưa vào sử dụng tại một ngân hàng có thể bị lừa tiến hành giao dịch trái phép nếu tin tặc thiết lập “chỉ dẫn” đúng.
Vì vậy, khi đề cập đến những AI phát hành thử nghiệm gần đây, NCSC cảnh báo “Các tổ chức đang xây dựng dịch vụ xung quanh LLMs cần phải cẩn trọng ở mức độ như họ đang sử dụng một sản phẩm mới trong giai đoạn thử nghiệm (beta)”.
Trong một cuộc khảo sát mới nhất của Reuters/Ipsos cho thấy có nhiều nhân viên công ty đang sử dụng công cụ như ChatGPT để thực hiện những tác vụ cơ bản như dự thảo mail, tóm tắt tài liệu hay thu thập dữ liệu nghiên cứu ban đầu.
Trong đó chỉ có khoảng 10% nhân viên cho biết cấp trên của họ cấm sử dụng công cụ AI bên ngoài một cách rõ ràng và 25% không biết công ty có cho phép sử dụng công nghệ này hay không.
Ông Oseloka Obiora, giám đốc công nghệ hãng bảo mật RiverSafe nhận định, cuộc đua tích hợp AI vào hoạt động kinh doanh sẽ tạo ra những “hậu quả thảm khốc” khi lãnh đạo doanh nghiệp không tiến hành những bước kiểm tra cần thiết. “Thay vì chạy theo xu hướng AI, các nhà lãnh đạo nên suy nghĩ kỹ và tiến hành đánh giá những lợi ích cũng như rủi ro và các biện pháp bảo mật cần thiết để bảo vệ doanh nghiệp”.
Tin giả và tin tặc
Các nhà chức trách trên thế giới cũng đang tìm cách quản lý sự phát triển mạnh mẽ của LLM, chẳng hạn như ChatGPT của OpenAI. Lo ngại về tính bảo mật của công nghệ mới được xem là trọng tâm chính sách khi Mỹ và Canada gần đây đã phát hiện nhiều trường hợp tin tặc tăng cường lợi dụng AI tạo sinh để thực hiện những hành vi trái pháp luật.
Một hacker thậm chí còn cho biết anh ta đã phát hiện một LLM đã được “huấn luyện” bằng những tài liệu độc hại và thử yêu cầu nó xây dựng kế hoạch lừa đảo chuyển tiền. Và AI đã đáp lại bằng cách tạo ra bức thư điện tử yêu cầu người nhận thanh toán hoá đơn khẩn cấp.
Tháng 7/2023, Trung tâm An ninh mạng Canada nhận thấy việc gia tăng sử dụng AI trong “lừa đảo qua email, nhúng mã độc, thông tin bị sai lệch và xuyên tạc”. Giám đốc trung tâm, Sami Khoury khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới này.
Lãnh đạo này cũng cho biết thêm, mặc dù việc sử dụng AI soạn thảo mã độc mới chỉ ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh sẽ dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng.
Trước đó, vào tháng 3/2023, tổ chức Cảnh sát châu u Europol cũng đã đưa ra báo cáo nói rằng ChatGPT có thể “mạo danh tổ chức, cá nhân theo cách rất thực tế ngay khi chỉ sử dụng tiếng Anh một cách cơ bản”. Trong cùng tháng, Trung tâm An ninh mạng quốc gia Anh khẳng định “LLM có thể được sử dụng để hỗ trợ các cuộc tấn công mạng”.