MỚI NHẤT!

Đọc nhanh >>

Công nghệ phản deepfake

14-12-2023 - 15:05 PM | Kinh tế số

Trong cuộc khảo sát vừa được Trường ĐH Đông Bắc (Mỹ) công bố, khoảng 50% người tham gia thừa nhận họ không thể phân biệt nội dung deepfake do AI tạo ra và nội dung được tạo ra bởi con người. "AI tạo sinh là công nghệ có thể làm thay đổi thế giới.

Tuy nhiên, khi công nghệ này bị lạm dụng, chúng ta phải xây dựng tuyến phòng thủ" - chuyên gia Ning Zhang của Trường ĐH Washington (Mỹ) nói với đài National Public Radio (NPR).

Nhóm nghiên cứu của ông Zhang đang phát triển công cụ mới nhằm chống lại hành vi lạm dụng deepfake. Với tên gọi AntiFake, công cụ này hoạt động bằng cách làm xáo trộn tín hiệu, khiến AI gặp khó khăn hơn trong việc tạo ra nội dung deepfake. Trước khi đăng video hoàn chỉnh lên mạng, người dùng có thể tải bản giọng nói lên nền tảng AntiFake.

Bảng hiệu AI tại Hội nghị Trí tuệ nhân tạo thế giới (WAIC) ở TP Thượng Hải - Trung Quốc hồi tháng 7-2023 Ảnh: REUTERS

Bảng hiệu AI tại Hội nghị Trí tuệ nhân tạo thế giới (WAIC) ở TP Thượng Hải - Trung Quốc hồi tháng 7-2023 Ảnh: REUTERS

Công cụ này sẽ làm xáo trộn tín hiệu âm thanh, gây nhầm lẫn cho AI. Nội dung được AntiFake điều chỉnh vẫn phát ra âm thanh bình thường đối với tai người nhưng lại khiến AI gặp khó khăn trong việc sao chép giọng nói rõ ràng. 

Ngoài AntiFake, người dùng có thể dựa vào một số công nghệ khác để nhận diện nội dung deepfake, bao gồm SynthID của Google và Stable Signature của Meta. 

Các công nghệ khác, được phát triển bởi những công ty như Pindrop (Mỹ) và Veridas (Tây Ban Nha), có thể giúp phát hiện nội dung deepfake bằng cách "soi" từng chi tiết nhỏ, chẳng hạn câu chữ có khớp với khẩu hình người nói hay không.

Trong cuộc chiến chống lại hành vi lạm dụng deepfake, sự đồng thuận được xem là yếu tố quan trọng nhất. Thượng viện Mỹ vào tháng 10 cho biết đang thảo luận dự luật mới nhằm xử lý những trường hợp sử dụng giọng nói và hình ảnh của người khác để tạo ra nội dung deepfake mà chưa nhận được sự đồng thuận.

Theo Cao Lực

Người Lao Động

Từ Khóa:

CÙNG CHUYÊN MỤC

XEM
Trở lên trên