MỚI NHẤT!

Đọc nhanh >>

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake?

30-03-2023 - 14:28 PM | Kinh tế số

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake?

Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Do đó, người dùng cần hết sức thận trọng để tránh bị lừa bởi loại hình tội phạm công nghệ cao này.

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake- - VTV.VN

Hãy tưởng tượng một ngày đẹp trời, bạn nhận được một cuộc điện thoại hoặc thậm chí là gọi video, người gọi có khuôn mặt và giọng nói giống hệt người thân trong gia đình. Có thể là người nhà của bạn khóc lóc xin bạn hãy chuyển khoản một số tiền vì họ vừa bị tai nạn đang ở trong bệnh viện. Chắc trong hoàn cảnh đó, ít ai tỉnh táo để kiểm tra xem cuộc gọi đó thật giả như thế nào. Chỉ khi đã chuyển khoản tiền và người thân vẫn bình yên vô sự, chúng ta mới biết mình bị lừa.

Công nghệ AI giả mạo giọng nói, gương mặt - hay còn gọi là Deepfake - đang được giăng ra những cái bẫy mà cả những người đa nghi cũng vẫn có thể vướng vào.

Khó phân biệt thật - giả với công nghệ Deepfake

Hiện nay, càng nhiều người thực hiện các thao tác với tài khoản ngân hàng từ xa như hay kiểm tra số dư qua điện thoại, thậm chí như ngân hàng Lloyds của Anh còn dùng mật khẩu là chính giọng nói của khách hàng.

Mới đây, một khách hàng của Lloyds đã thử dùng AI giả mạo giọng nói và thực tế, anh ta đã xâm nhập được vào tài khoản ngân hàng dễ dàng. Việc những công nghệ tinh vi có thể giả được giọng nói giả được cả gương mặt thực sự mở ra một cái bẫy mới rất đáng lo ngại, chỉ chờ những người cả tin mắc vào.

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake? - Ảnh 1.

Deepfake có thể tạo ra gương mặt, giọng nói giống với phiên bản thật một cách tự nhiên, đến mức khó có thể phân biệt thật hay giả

Chắc những người hâm mộ của diễn viên Leonardo Di Caprio từng phải trầm trồ vì khả năng nói tiếng Nga như người bản địa của anh. Cho đến khi họ biết rằng video đó là đồ giả - một sản phẩm của công nghệ Deepfake.

Deepfake đã tạo ra và gắn gương mặt, giọng nói và cử động cơ miệng của nam diễn viên này cho một người đàn ông tại Nga. Một công nghệ có vẻ giải trí cho tới khi nó được dùng để lừa đảo.

Tháng 3 năm 2019, một thư ký tại Anh đã được nhận được cuộc gọi khẩn của Chủ tịch tập đoàn. Giọng nói cùng phong thái quen thuộc của vị CEO khiến người nhân viên này không nghi ngờ gì mà chuyển ngay số tiền 220.000 Bảng Anh, tương đương với hơn 6 tỷ đồng. Vụ lừa đảo đã diễn ra trót lọt.

Và theo đại diện công ty bảo hiểm chịu trách nhiệm bồi thường cho tập đoàn này, nếu một vụ lừa đảo tinh vi như thế lại diễn ra, họ có khả năng vẫn sẽ bị lừa.

Bà Marie - Christine Kragh từ Công ty bảo hiểm Euler Hermes cho biết: "Chúng tôi thấy các dấu hiệu rõ ràng từ vụ lừa đảo này là có sự can thiệp của công nghệ trí tuệ nhân tạo khi làm giả giọng nói y hệt để lừa các nạn nhân".

Theo số liệu cục điều tra Liên bang Mỹ FBI công bố, chỉ trong năm ngoái, tại Mỹ, số tiền các cá nhân bị lừa đảo chiếm đoạt qua mạng đã lên tới hơn 10 tỷ USD, gần gấp đôi so với năm 2021.

Công nghệ Deepfake được thực hiện như thế nào?

Đầu tiên, giọng nói và gương mặt của một người sẽ được thu thập có thể từ các video cá nhân tự đăng tải hoặc nếu họ đã từng được phỏng vấn ở đâu đó và được tung lên mạng.

Sau đó, có 2 thuật toán sẽ được sử dụng để nhào nặn ra phiên bản giả mạo. Hai thuật toán này - một là Khởi phát, một là Phân biệt - sẽ truyền đi truyền lại gương mặt và giọng nói, cho tới khi thuật toán 1 nặn ra được phiên bản giả mạo (fake) hoàn hảo nhất, đến nỗi thuật toán 2 không thể tìm thấy sai sót. Do đó, việc dùng mắt thường để phân biệt thật giả là rất khó.

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake? - Ảnh 2.

Các thuật toán có thể tạo ra phiên bản giả mạo giống thật đến mức mắt thường khó có thể phân biệt

Hiện nay, các vụ rò rỉ dữ liệu cá nhân vẫn diễn ra tràn lan, trong đó có thông tin, hình ảnh của các nạn nhân. Đây cũng được cho là mỏ dữ liệu quan trọng để những công nghệ như Deepfake giọng nói và gương mặt có thể khai thác, tiếp tục giăng bẫy trong cộng đồng.

Mối lo bị giả mạo với mục đích xấu tại châu Âu

Ngoài các mánh khoé lừa tiền, chỉ riêng việc gương mặt của mình có thể bị gán ghép vào bất cứ chỗ nào cũng đủ khiến người ta lo ngại. Đặc biệt là khi hàng ngày, mọi người rất thường xuyên chụp ảnh, quay video chia sẻ lên mạng xã hội. Đó được coi như "mỏ vàng" dữ liệu cho những kẻ xấu thu thập để giả mạo.

Tại châu Âu, mối lo bị giả mạo với mục đích xấu xa còn lớn hơn cả lo bị lừa tiền. Người dân châu Âu quan tâm nhiều hơn tới nguy cơ kẻ xấu dùng công nghệ Deepfake để hủy hoại thanh danh của cá nhân hoặc của doanh nghiệp, thao túng dư luận, vận động đám đông, hoặc tác động vào quá trình bầu cử.

Công nghệ tới lúc này đã tạo ra những video giả mạo tinh vi và sẽ còn hoàn thiện hơn, dễ dùng hơn trong tương lai. Rồi sẽ tới lúc một chiếc điện thoại thông thường cũng có thể tạo ra những video giả mạo, trong đó mô tả bất cứ ai nói hoặc làm bất cứ điều gì không có thực. Xã hội sẽ hỗn loạn nếu như ngay từ bây giờ không có những luật điều chỉnh hành vi đó.

Nghị viện châu Âu đã bắt đầu quan tâm ngay từ khi những video Deepfake thô sơ đầu tiên xuất hiện trên mạng vào năm 2017. Hướng đi ban đầu là áp dụng các điều khoản đã có sẵn trong Luật Hình sự liên quan tới gian lận, mạo phạm danh tính, vu khống và phỉ báng để ngăn chặn. Sau đó, các nước châu Âu sẽ sửa luật hoặc ra luật mới nhằm ngăn chặn ý đồ xấu nhưng vẫn cho phép video giải trí hoặc châm biếm để đảm bảo tự do ngôn luận và tự do sáng tác.

Đạo luật Dịch vụ kỹ thuật số và Đạo luật Trí tuệ nhân tạo mà Nghị viện châu Âu phê chuẩn, dự kiến có hiệu lực kể từ năm sau, đi theo hướng này. Trong đó, đạo luật có một chi tiết quan trọng là bắt buộc các video Deepfake phải thông báo rõ ràng cho người xem, ngay từ đầu và trong toàn bộ video, đó là giả.

Trung Quốc siết chặt kiểm soát với Deepfake

Đầu năm nay, bắt đầu từ ngày 10/1, Trung Quốc đã đưa ra đạo luật kiểm soát những công nghệ AI như Deepfake. Đây được cho là bộ luật chi tiết nhất được một quốc gia đưa ra cho tới thời điểm này.

Theo đó, Deepfake sử dụng công nghệ Deep Learning ( thuật toán học sâu), thực tế tăng cường để tạo ra văn bản, hình ảnh, âm thanh, video và khung cảnh ảo. Quy định bắt buộc nhà cung cấp dịch vụ hay cá nhân nếu sử dụng công nghệ này để thay đổi hình ảnh và giọng nói phải được đối tượng đồng ý, đảm bảo quyền sở hữu trí tuệ, quyền con người. Các nhà cung cấp dịch phải thiết lập kiểm soát cơ chế thuật toán, tuân thủ pháp luật, tôn trọng những giá trị đạo đức và dễ dàng truy vết.

Quy định cũng bắt buộc người dùng công nghệ chỉ được sử dụng hơn 1.300 nguồn thông tin từ báo, từ mạng được cho phép nhằm góp phần ngăn chặn hành vi bóp méo sự thật, thông tin giả để bôi nhọ cá nhân hay xuyên tạc, chống phá nhà nước.

Deepfake có tiềm năng phát triển mạnh trong ngành làm đẹp, dịch vụ khách hàng thông minh, người dẫn chương trình ảo… Công nghệ này đã phát triển 8 năm nay nên Cục quản lý không gian mạng, Bộ Công nghiệp và Công nghệ thông tin, Bộ Công an quyết tâm triển khai quy định này để Deepfake phát triển lành mạnh.

Việc quản lý Deepfake ở Trung Quốc tương đối thuận lợi vì các luật liên quan đã khá đầy đủ. Theo các chuyên gia, quy định là một bước quan trọng trong việc quản lý nội dung mạng, từ quản lý kết quả, đến quản lý hành vi, đánh dấu việc tối ưu hóa hơn nữa năng lực quản trị không gian mạng của Trung Quốc.

Làm thế nào để tránh bẫy Deepfake?

Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Chính vì vậy, câu nói "Phòng bệnh hơn chữa bệnh" lại càng đúng trong trường hợp này.

Các chuyên gia đã chỉ ra một số biện pháp để giúp người dân đối phó với loại hình tội phạm công nghệ cao này.

Theo đó, nếu bạn nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin:

- Liên lạc với người thân, bạn bè xem có đúng là họ cần tiền không.

- Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.

- Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

- Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Hãy lưu giữ cẩn thận thông tin cá nhân của bạn, như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái, thú cưng... Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân hàng và những người khác.


Theo PV

VTV

CÙNG CHUYÊN MỤC

XEM
Trở lên trên