MỚI NHẤT!

Đọc nhanh >>

Cách nhận biết chiêu ghép mặt, giọng nói giống hệt người thân để lừa đảo

27-03-2023 - 19:39 PM | Kinh tế số

Cách nhận biết chiêu ghép mặt, giọng nói giống hệt người thân để lừa đảo

Đã xảy ra nhiều vụ lừa đảo bằng cách cắt ghép hình ảnh, giọng nói y như thật để lừa đảo. Ngô Minh Hiếu (Hiếu PC) - người sáng lập Dự án Chống Lừa Đảo, đã vạch rõ chiêu trò mới này.

Cách nhận biết chiêu ghép mặt, giọng nói giống hệt người thân để lừa đảo - Ảnh 1.

Phóng viên: Trước giờ, khi gặp những tình huống khả nghi khi trao đổi trên mạng xã hội, nhiều người thường xác minh bằng video call nhưng nghe nói cách này đã bị vô hiệu hóa bởi công nghệ "Deepfake"?

- Hiếu PC: Có lẽ bạn đã từng xem qua video hoặc hình ảnh mà nhân vật trong đó có một số dấu hiệu kỳ lạ, như: khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói hoặc tư thế của họ trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của họ trong video không nhất quán với nhau. Đó có thể là video giả mạo khuôn mặt. Người dùng nên dừng lại để suy nghĩ.

Ngoài ra, bạn cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

Ông Ngô Minh Hiếu (Hiếu PC) nói về những chiêu trò giả mạo khuôn mặt khi video call

+ Ông đã gặp trường hợp thực tế đã bị mất tiền sau khi nhận cuộc gọi video bị dàn dựng hay chưa? Xin cho biết các thủ đoạn mà các nhóm lừa đảo công nghệ cao thường dùng trong trường hợp này?

- Đã có một số trường hợp ghi nhận tại Việt Nam bị lừa bởi công nghệ Deepfake. Cụ thể, kẻ lừa đảo tạo nick ảo hoặc hack nick thật, tìm kiếm nạn nhân trên mạng xã hội để nhắn tin, mượn tiền,.. Khi nạn nhân video call để xác mình thì bọn lừa đảo dùng video call đã chuẩn bị sẵn. Nếu nạn nhân thiếu cảnh giác sẽ bị qua mặt.

+ Làm thế nào để nhận biết đâu là cuộc gọi video call giả, thưa ông?

- Hiện tại, công nghệ AI và đặc biệt là Deepfake ngoài được dùng để nhằm phục vụ mục đích tốt, đã bị một số thành phần sử dụng cho mục đích xấu như lừa đảo, giả mạo, bôi nhọ hay thậm chí là làm ra tin giả. Để tránh bị lừa, tốt nhất người dùng nên tỉnh táo, khi có một ai đó trên mạng xã hội trong danh sách bạn bè của mình mà tự nhiên hỏi mượn tiền hay gửi link lạ thì nên bình tĩnh, kiểm chứng và nên xác thực mọi thứ.

Chủ động xác thực bằng cách gọi điện thoại số điện thoại trực tiếp hoặc video call ít nhất trên 1 phút, sau đó giả vờ đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao. Vì dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này.

Một yếu tố quan trọng chỉ dấu lừa đảo là tài khoản người nhận tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...

+ Nhu cầu chia sẻ hình ảnh, clip trên mạng xã hội của mọi người là rất lớn, làm như thế nào để không bị kẻ xấu lợi dụng?

- Người dùng nên hạn chế chia sẻ thông tin, clip cá nhân trên mạng xã hội và luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao. Cần nâng cao khả năng nhận biết các thủ đoạn lừa đảo. Nếu cẩn thận, có thể làm méo âm thanh trước khi chia sẻ trên mạng xã hội, tránh trường hợp kẻ gian dùng âm thanh để cắt ghép, chỉnh sửa rồi dùng với mục đích xấu.

+Xin cảm ơn ông!

SƠN NHUNG - NGỌC ÁNH/ĐỒ HỌA: LÊ DUY

Người lao động

Từ Khóa:

CÙNG CHUYÊN MỤC

XEM
Trở lên trên