Alphabet Inc, công ty mẹ của Google, khuyến nghị nhân viên không nhập thông tin bí mật hoặc nhạy cảm vào các chatbot tích hợp AI và tránh sử dụng trực tiếp mã máy tính mà chatbot có thể tạo ra.
Chatbot Bard của Google. (Nguồn: Getty Images)
Các nguồn thạo tin cho hay Alphabet Inc, công ty mẹ của Google đang cảnh báo nhân viên về cách sử dụng chatbot, bao gồm cả Bard của chính họ, trong khi vẫn quảng bá ứng dụng này trên toàn thế giới.
Những nguồn tin đã trích dẫn một bản cập nhật ngày 1/6 về chính sách quyền riêng tư của Google, trong đó khuyến nghị nhân viên không nhập thông tin bí mật hoặc nhạy cảm vào các chatbot tích hợp trí tuệ nhân tạo (AI).
Ngoài ra, Alphabet cũng cảnh báo các kỹ sư của mình tránh sử dụng trực tiếp mã máy tính mà chatbot có thể tạo ra.
Khi được yêu cầu bình luận, công ty cho biết Bard có thể đưa ra các đề xuất mã không mong muốn, nhưng nó cũng giúp ích cho các lập trình viên. Google cũng cho biết họ muốn minh bạch về những hạn chế trong công nghệ của mình.
Theo một nguồn tin, Google từ hồi tháng Hai đã yêu cầu nhân viên kiểm tra Bard để đảm bảo chatbot này không cung cấp thông tin nội bộ trước khi được chính thức ra mắt. Giờ đây, Google đang triển khai dịch vụ của Bard tới hơn 180 quốc gia và vùng lãnh thổ với 40 ngôn ngữ khác nhau.
Đối thủ của Google trong cuộc đua phát triển chatbot AI – Microsoft đã từ chối đưa ra bình luận về khả năng ra lệnh cấm nhân viên nhập thông tin bảo mật vào các chương trình AI công cộng, bao gồm cả công cụ của chính họ. Một quản lý cấp cao của Microsoft từng chia sẻ với báo giới rằng cá nhân ông đã hạn chế sử dụng các chương trình này.
Các chatbot, bao gồm Bard và ChatGPT, là các chương trình sử dụng AI tổng hợp sáng tạo nội dung (generative AI) để xây dựng các cuộc đối thoại giống với người thật và trả lời vô số yêu cầu khác nhau của người dùng. Công cụ này có thể soạn thảo email, tài liệu, thậm chí cả phần mềm, hứa hẹn giúp tăng tốc đáng kể các hoạt động của con người.
Tuy nhiên, nội dung do chatbot tạo ra có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc thậm chí là các nội dung có bản quyền từ các tiểu thuyết đã xuất bản như “ Harry Potter.” Ngoài ra, các đánh giá viên con người có thể đọc các cuộc trò chuyện do người dùng tạo ra với chatbot.
Đáng chú ý, các nhà nghiên cứu phát hiện ra rằng AI của chatbot có thể tái tạo dữ liệu mà nó hấp thụ trong quá trình đào tạo, dẫn đến nguy cơ rò rỉ thông tin và dữ liệu do người dùng tải lên.
Thái độ thận trọng của Google cũng phản ánh sự phát triển trong tiêu chuẩn bảo mật cho các tập đoàn, cụ thể là cảnh báo nhân viên về việc sử dụng các chương trình trò chuyện tích hợp AI phổ thông với công chúng.
Ngày càng nhiều doanh nghiệp trên khắp thế giới thiết lập rào cản đối với các chatbot AI, trong số đó bao gồm tập đoàn điện tử Samsung, “đại gia” thương mại trực tuyến Amazon.com và ngân hàng Đức Deutsche Bank. Apple được cho là cũng có động thái tương tự dù không đưa ra câu trả lời công khai về vấn đề này.
Một số công ty đã phát triển phần mềm để giải quyết những lo ngại như vậy. Chẳng hạn, Cloudflare – công ty chuyên bảo vệ các trang web khỏi các cuộc tấn công mạng và cung cấp các dịch vụ đám mây khác nhau – đang quảng cáo khả năng cho phép các công ty gắn thẻ và hạn chế một số dữ liệu “chảy” ra bên ngoài.
Google và Microsoft cũng đang cung cấp các công cụ chatbot AI cho khách hàng doanh nghiệp với mức giá cao hơn, nhưng không để dữ liệu bị hấp thụ vào các mô hình AI công cộng.
Trước đó, ba tập đoàn tài chính lớn nhất Nhật Bản đang đón đầu xu hướng trí tuệ nhân tạo tạo sinh (generative AI) – một bước tiến mới của AI, khi ứng dụng chatbot để hỗ trợ công việc lập báo cáo và các công việc nội bộ khác.
Chatbot là một chương trình máy tính được dựa trên AI mô phỏng các cuộc trò chuyện của con người. Tập đoàn tài chính Mitsubishi UFJ Financial Group (MUFG) sẽ bắt đầu sử dụng một công cụ chatbot vào mùa hè này để thực hiện các công việc như viết đơn xin chấp thuận hay trả lời các câu hỏi nội bộ, nhằm tăng năng suất lao động bằng cách tiết kiệm thời gian và công sức của nhân viên cho những công việc giấy tờ.
Khi công cụ chatbot này đã được sử dụng phổ biến trong nội bộ, MUFG dự định sẽ hợp tác với Microsoft Japan trong năm nay để phát triển phần mềm chatbot AI được thiết kế riêng để đáp ứng những nhu cầu công việc của tập đoàn này. Trong tương lai, MUFG sẽ cân nhắc việc sử dụng công nghệ này để trả lời các câu hỏi trực tuyến của khách hàng.
Sumitomo Mitsui Financial Group (SMFG) mới đây cũng cho biết sẽ bắt đầu chạy thử nghiệm công cụ chatbot AI được phát triển dưới sự hợp tác với Microsoft Japan. Tập đoàn này dự định ban đầu sẽ ứng dụng công cụ này với toàn bộ nhân viện của Sumitomo Mitsui Banking Corp. vào khoảng mùa Thu này.
Công cụ trợ lý này sẽ có thể trả lời các câu hỏi của ngân viên dựa trên những thông tin có sẵn được công khai và dữ liệu của ngân hàng này. SMFG ghi nhận công cụ này được sử dụng để tìm kiếm các quy định kinh doanh hay thu thập các thông tin cơ bản về khách hàng để giúp soạn thảo các văn bản. Công cụ chatbot sẽ chỉ được giới hạn trong mạng lưới nội bộ để tránh rò rỉ thông tin.
Mizuho Financial Group cũng dự định ứng dụng một công cụ AI để sử dụng nội bộ. Công ty này đang xem xét hợp tác với Microsoft Japan để phát triển một phần mềm chatbot của riêng mình nhằm bảo vệ các thông tin nhạy cảm.
Theo Vietnam+