Cụ thể, công ty mẹ của Google là Alphabet đã khuyên nhân viên không nhập các tài liệu bí mật của mình vào các chatbot AI. Theo các nguồn tin từ chính Alphabet mà Reuters có được, công ty này cũng cảnh báo các kỹ sư của mình tránh sử dụng trực tiếp mã máy tính mà chatbot có thể tạo ra.
Các chatbot, gồm Bard và ChatGPT, là các chương trình sử dụng cái gọi là trí tuệ nhân tạo tổng quát để thực hiện các cuộc trò chuyện giống con người với người dùng. Và theo các chuyên gia, các chatbot có thể tái tạo dữ liệu mà nó hấp thụ trong quá trình trả lời, tạo ra nguy cơ rò rỉ thông tin người dùng.
Những lo ngại cho thấy Google muốn tránh tác hại kinh doanh từ phần mềm mà hãng tung ra để cạnh tranh với ChatGPT như thế nào. Sự thận trọng của Google cũng phản ánh xu hướng lo sợ đang diễn ra trên toàn thế giới, trong đó có việc các công ty cánh báo không tiết lộ thông tin trên các chatbot.
Ngày càng nhiều doanh nghiệp trên khắp thế giới đã thiết lập các biện pháp bảo vệ trên các chatbot AI, trong số đó có Samsung, Amazon hay Deutsche Bank.
Khoảng 43% chuyên gia công nghệ đang sử dụng ChatGPT hoặc các công cụ AI khác kể từ tháng 1, thường không nói với cấp trên của họ, theo một cuộc khảo sát với gần 12.000 người bởi trang mạng Fishbowl ở Mỹ.
Đến tháng 2, Google yêu cầu nhân viên của chatbot Bard không được cung cấp thông tin nội bộ, theo Insider đưa tin. Hiện, Google đang triển khai Bard tới hơn 180 quốc gia và bằng 40 ngôn ngữ.
Công nghệ AI của Google đang được áp dụng vào các công cụ tự soạn thảo email, tài liệu, thậm chí cả tự tạo phần mềm. Tuy nhiên, những công việc này có thể chứa thông tin sai lệch, cũng có nguy cơ làm rò rỉ thông tin.
Bùi Huy (theo Reuters,Insider)