“Lật mặt” thách thức từ deepfake
Gần đây, thuật ngữ “deepfake” được đề cập tới nhiều, đặc biệt xung quanh việc phát tán ảnh khỏa thân giả của ca sĩ nổi tiếng Taylor Swift trên X. Các chuyên gia từ Đại học RMIT thảo luận về tác động nguy hại của deepfake và đề xuất hướng giải quyết vấn nạn này.
- 27-02-2024Tràn lan thông tin "Đào, phở và piano" chiếu đồng giá 45k tại CGV, Lotte, sự thật hay chỉ là chiêu lừa đảo?
- 27-02-2024Cảnh báo đường dây giả danh công an, kiểm sát viên gọi điện lừa đảo, chiếm đoạt hơn 200 tỷ đồng
- 26-02-2024Vừa đánh giá 5 sao dịch vụ nâng cấp SIM 4G thì tố cáo nhà mạng lừa đảo 170 triệu đồng, cô gái lập tức bị cảnh sát tạm giữ
Tiến sĩ Jonathan Crellin, Chủ nhiệm bộ môn An toàn thông tin, Khoa Khoa học, Kỹ thuật và Công nghệ, Đại học RMIT: “Tội phạm mạng khai thác công nghệ mới theo những cách không lường trước được”.
Việc gia tăng sử dụng AI mang lại cả lợi ích lẫn những vấn đề mới và đầy bất ngờ.
Deepfake là hình ảnh do máy tạo ra, có thể kết hợp hình ảnh hoặc video từ nhiều nguồn khác nhau, tạo ra hình ảnh, video hoặc thậm chí âm thanh rất chân thực. Deepfake dựa trên một kỹ thuật trong AI được gọi là máy học, có thể thay thế và tích hợp các yếu tố như khuôn mặt của một người vào hình ảnh hoặc video khác.
Một ví dụ về sử dụng deepfake là việc tạo ra những hình ảnh giả đáng xấu hổ của Taylor Swift bằng việc kết hợp nội dung khiêu dâm với ảnh của cô.
Để làm được điều này, kẻ thủ ác cần một số hình ảnh để phần mềm có thể tìm hiểu về biểu đạt khuôn mặt của nữ ca sĩ, rồi sau đó kết hợp chúng với nội dung khiêu dâm để tạo ra một tấm ảnh tục tĩu, khiến hình tượng của cô bị bôi nhọ. Trên thực tế, có lời đồn là những tấm ảnh này do một nhóm trên Telegram tung ra và được tạo từ công cụ Microsoft Designer có tích hợp hỗ trợ AI.
Bất kỳ ai cũng có thể trở thành nạn nhân, khi kẻ ác chỉ cần hình ảnh, video hoặc bản ghi âm của người bị giả mạo. Giả mạo dưới nhiều hình thức khác nhau có khả năng được dùng để tạo ra những tin tức sai lệch và chắc chắn rằng, cuộc bầu cử tổng thống Hoa Kỳ sẽ tới sẽ ngập tràn những tin giả như vậy.
Hiện tại, các nhà làm luật trên khắp thế giới đang loay hoay tìm cách ban hành luật chống lại loại hình ảnh này. Một số hướng tiếp cận đã bắt đầu được sử dụng ở Hoa Kỳ để xây dựng luật pháp khả thi, có thể dựa trên các vụ kiện dân sự, hoặc luật nhằm xử lý việc “phổ biến các hình ảnh khiêu dâm về một người do AI tạo ra mà không có sự đồng thuận của người đó”. Trung Quốc cũng đưa ra các quy định mới cho phép truy tố các hình ảnh do AI tạo ra. Vương quốc Anh đã coi việc chia sẻ nội dung khiêu dâm deepfake là bất hợp pháp theo đạo luật an toàn trực tuyến của nước này.
Làm thế nào để phát hiện hoặc ngăn chặn điều này? Cách đầu tiên là giảm số lượng hình ảnh, video hoặc bản ghi âm trực tuyến. Hãy đảm bảo rằng bạn chỉ chia sẻ chúng với người quen chứ không đăng tải rộng rãi trên mạng. Một khi đã đưa nội dung lên internet thì hầu như không thể xóa bỏ.
Điều thứ hai có thể làm là đảm bảo quy ước một từ bí mật với gia đình nhằm xác thực cuộc gọi, giúp giảm bớt nguy cơ rơi vào bẫy của cuộc gọi giả mạo. Hình ảnh, đặc biệt là video, có thể có các lỗi kỳ lạ (trông như được dàn dựng), nếu bạn phát hiện ra những lỗi này thì khả năng cao là hình ảnh hay âm thanh đó đã bị làm giả.
Một kỹ thuật khác có thể dùng là tìm kiếm “hình ảnh đảo chiều” từ Google hoặc các công cụ tìm kiếm khác, nhằm xác định nguồn của ảnh gốc.
Nhưng bài học cuối cùng là đừng mù quáng tin vào những gì bạn nhìn thấy, máy ảnh (hoặc AI) có thể nói dối!
Theo Tiến sĩ Nguyễn Văn Thăng Long, giảng viên cấp cao Khoa Truyền thông và Thiết kế, Đại học RMIT, Deepfake tạo ra mối nguy rất lớn cho người nổi tiếng và chính trị gia do thông tin tiêu cực về họ xuất hiện với tần suất liên tục khiến công chúng có cái nhìn không thiện cảm với họ.
Với sự tràn lan của tin giả từ deepfake, đội ngũ truyền thông của người nổi tiếng, chính trị gia cần có sẵn nguồn lực để theo dõi và phản ứng kịp thời với tin giả hay liên tục hiệu đính các tin tức sai lệch.
Nếu deepfake được kết hợp bài bản với các hình thức PR bẩn có tổ chức thay vì tự phát, thì nhiệm vụ này càng khó khăn hơn do thông tin trái chiều tràn lan, mà tin giả, tin tiêu cực lúc nào cũng sẽ được chia sẻ nhiều hơn tin tích cực.
Thông thường, khi thấy tin tức chia sẻ trên mạng xã hội, các cá nhân thường có thói quen xác tín thông tin qua các kênh báo chí chính thống. Với nội dung tạo ra từ deepfake ngập tràn trên mạng xã hội, ngày càng gian nan và tốn thời gian để xác thực tính chính xác của tin tức báo chí chính thống, đòi hỏi phải có kỹ thuật nghiên cứu và kiểm chứng chuyên sâu.
Càng chậm trễ trong việc xác minh tin tức và nguồn tin, càng khiến thông tin sai lệch, bịa đặt hoặc gây hiểu lầm phát tán rộng hơn do tốc độ chia sẻ và bình luận chóng mặt trên mạng xã hội. Điều này khiến cho vấn đề gốc rễ trầm trọng thêm và có khả năng dẫn đến bất ổn xã hội, đặc biệt nếu nội dung liên quan tới phát ngôn chính trị, tôn giáo, giới tính, chiến lược kinh doanh hoặc các vấn đề kinh tế vĩ mô.
Trong bối cảnh deepfake lan tràn, chiến lược quản lý rủi ro hiệu quả nhất vẫn là duy trì các kênh thông tin nhất quán, thông qua các nền tảng mạng xã hội phổ biến, website, hay gặp mặt trực tiếp, giữa doanh nghiệp, người nổi tiếng, chính trị gia với các bên có liên quan chính như người hâm mộ, báo chí, cộng đồng, nhân viên.
Bằng cách duy trì các kênh truyền thông này, việc tiếp nhận nhanh chóng thông tin liên quan đến deepfake trở nên khả thi hơn, giúp việc hiệu đính tin đồn sẽ kịp thời và hiệu quả, đồng thời vạch trần thông tin sai lệch ngay từ đầu.
Tuy nhiên, công ty, người nổi tiếng, chính trị gia cũng cần phải lên kịch bản xử lý khủng hoảng dành riêng cho deepfake trước, ví dụ như: ai sẽ là người thông báo, kênh truyền thông nào sẽ thông báo, những tiêu chí xác minh thông tin qua bằng chứng và các nguồn uy tín chứng thực thông tin, xác lập trình tự thời gian giải quyết tin đồn và vạch chiến lược khôi phục uy tín.
Với kế hoạch bài bản được chuẩn bị tốt, việc xử lý khủng hoảng do deepfake sẽ trở nên khả thi hơn, giảm thiểu các hậu quả đáng tiếc có thể xảy ra.
Vnmedia