Chuyên gia an ninh mạng chia sẻ những điều tuyệt đối không nên "tâm sự" với ChatGPT nếu không muốn lĩnh hậu quả?
Là công cụ hỗ trợ đắc lực trong nhiều lĩnh vực, nhưng không phải thông tin nào cũng nên chia sẻ với ChatGPT và các chatbot AI khác. Chuyên gia an ninh mạng Sebastian Gierlinger, Phó chủ tịch phụ trách kỹ thuật tại Storyblok, đã có những chia sẻ về điều này.
- 11-06-2024Mỹ: Các bệnh viện liên tiếp bị tấn công mạng, Microsoft và Google vào cuộc
- 11-06-2024Sếp FPT: "Rất nhiều người Việt cứ bị ám ảnh bởi con ốc vít"
- 11-06-2024Lỗ hổng mới khiến các máy chủ Windows có nguy cơ bị tấn công
Trong thời đại công nghệ số, trí tuệ nhân tạo (AI) và chatbot AI như ChatGPT đang ngày càng trở nên phổ biến và được ứng dụng rộng rãi trong công việc. Tuy nhiên, bên cạnh những lợi ích mà AI mang lại, việc sử dụng công nghệ này cũng tiềm ẩn nhiều nguy cơ, đặc biệt là trong lĩnh vực an ninh mạng. Ông Sebastian Gierlinger, chuyên gia an ninh mạng và là Phó chủ tịch phụ trách kỹ thuật tại Storyblok, một công ty chuyên về hệ thống quản lý nội dung với các khách hàng lớn như Netflix, Tesla và Adidas, đã chia sẻ những điều cần lưu ý khi tương tác với AI.
Theo ông Sebastian Gierlinger, có đến 75% công ty hiện nay chưa có chính sách cụ thể về sử dụng AI. Nhiều doanh nghiệp thậm chí cấm nhân viên sử dụng AI tại nơi làm việc. Tuy nhiên, điều này dẫn đến việc nhân viên sử dụng tài khoản cá nhân cho mục đích riêng. Họ có thể vô tình cung cấp dữ liệu bí mật của công ty cho ChatGPT hoặc các nền tảng tương tự mà không hề hay biết. Ví dụ, một nhân viên tài chính muốn phân tích ngân sách có thể tải lên ChatGPT dữ liệu của công ty hoặc khách hàng, từ đó vô tình làm lộ thông tin mật.
Ông Gierlinger nhấn mạnh, người dùng cần phân biệt rõ ràng giữa các chatbot AI khác nhau. Bản thân ông tin tưởng OpenAI và chuỗi cung ứng của họ luôn nỗ lực đảm bảo an ninh mạng, dữ liệu người dùng không bị rò rỉ. Tuy nhiên, những chatbot AI tự phát triển, thường thấy trên website của các hãng hàng không hoặc phòng khám, lại tiềm ẩn nhiều nguy cơ hơn do có thể thiếu đầu tư cho bảo mật. Chẳng hạn, người dùng có thể cung cấp thông tin sức khỏe cá nhân cho chatbot trên website của bác sĩ. Nếu dữ liệu bị rò rỉ, những thông tin nhạy cảm này có thể bị lợi dụng.
Cũng giống như việc sử dụng mạng xã hội, người dùng cần thận trọng với những gì chia sẻ với chatbot AI. Các công ty công nghệ có thể sử dụng dữ liệu này để huấn luyện mô hình AI tiếp theo. Nếu chia sẻ thông tin quá cụ thể, người khác có thể khai thác thông tin đó thông qua chatbot. Ông Gierlinger lấy ví dụ về việc ông sử dụng ChatGPT để tìm kiếm gợi ý du lịch. Nếu ông cung cấp thông tin quá chi tiết, công ty công nghệ có thể sử dụng dữ liệu này và chatbot có thể tiết lộ thông tin cá nhân của ông cho người khác. Điều này cũng đúng với việc chia sẻ thông tin tài chính. Mặc dù chưa có trường hợp nào bị rò rỉ thông tin, nhưng đây là rủi ro tiềm ẩn mà người dùng cần lưu ý.
Để đảm bảo an toàn thông tin, người dùng nên tuân thủ chính sách sử dụng AI của công ty. Tại Storyblok, ông Gierlinger cho biết công ty có danh sách những thông tin tuyệt mật không được phép tải lên bất kỳ chatbot hay mô hình AI nào, bao gồm thông tin về lương, nhân viên và hiệu suất tài chính. Storyblok cũng có chính sách riêng về việc sử dụng AI trong lập trình. Theo đó, AI như Copilot của Microsoft không phải chịu trách nhiệm cho bất kỳ dòng code nào được tạo ra. Tất cả code được tạo bởi AI phải được kiểm tra bởi lập trình viên trước khi đưa vào kho lưu trữ của công ty. Ông Gierlinger cũng đưa ra lời khuyên cho người dùng, nếu phân vân không biết có nên chia sẻ thông tin nào với AI hay không, hãy tự hỏi liệu bạn có đăng thông tin đó lên Facebook hay không. Nếu câu trả lời là “không” thì cũng đừng chia sẻ với chatbot AI.
Đời sống và Pháp luật