MỚI NHẤT!

Đọc nhanh >>

Cảnh giác với những cuộc gọi Deepfake

06-04-2023 - 09:32 AM | Kinh tế số

Cảnh giác với những cuộc gọi Deepfake

Các chuyên gia cho biết, các cuộc gọi Deepfake (giả tạo gương mặt, giọng nói của người thân để lừa đảo) có đặc điểm chung là ngắn, nhòe, chất lượng âm thanh, hình ảnh không tốt và kèm theo đề nghị chuyển tiền. Người nghe cần hết sức thận trọng khi nhận cuộc gọi như vậy.

Thời gian qua, tại nhiều địa phương xuất hiện các đối tượng sử dụng trí tuệ nhân tạo, giả mạo gương mặt , giọng nói của người khác (Deepfake) để thực hiện hành vi lừa đảo chuyển tiền khiến một số người sập bẫy.

Theo chuyên gia Vũ Thanh Thắng, Giám đốc cấp cao về trí tuệ nhân tạo của Công ty An ninh mạng thông minh SCS, Deepfake là công nghệ trí tuệ nhân tạo (AI) có khả năng làm giả video và giọng nói của một người khác, sau đó dùng video giả mạo này để gọi cho những người thân, bạn bè của người này nhằm mục đích lừa chuyển tiền trong những tình huống khẩn cấp như bị tai nạn, cấp cứu, cần tiền gấp.

Cách thức lừa đảo bằng Deepfake phổ biến là kẻ lừa đảo sẽ sử dụng Zalo, Facebook của nạn nhân để nhắn tin, thậm chí chủ động gọi video call sử dụng Deepfake để mượn tiền bạn bè hoặc người thân.

Ông Thắng chia sẻ, những cuộc video này thường rất ngắn với mục đích cho bạn bè hay người thân của nạn nhân nhìn thoáng qua sau đó tắt đi với lý do sóng điện thoại kém.

“Mấu chốt của việc lừa đảo này là để những người thân của nạn nhân tin rằng bạn bè, người thân của mình đang gặp vấn đề và cần tiền gấp. Với cách thức này, những người không để ý, trung niên chỉ nhìn thoáng qua hình ảnh video call có thể sập bẫy kẻ gian”, ông Thắng nói.

Nhiều nguy cơ mới về hình thức lừa đảo dựa trên AI

Theo chuyên gia Vũ Thanh Thắng, chúng ta đang sống trong bối cảnh cuộc mạng công nghiệp, công nghệ 4.0, nơi mà AI và Big data... đang là trọng tâm của cuộc cách mạng này. Trí tuệ nhân tạo đang phát triển nhanh chóng và dễ dàng tiếp cận với tất cả mọi người nói chung, và tội phạm nói riêng. Điều đó sẽ dấy lên những nguy cơ mới về các hình thức lừa đảo dựa trên công nghệ AI.

Cảnh giác trước video ngắn, nhòe, đề nghị chuyển tiền

Dù hình thức lừa đảo Deepfake rất tinh vi nhưng theo chuyên gia Nguyễn Minh Tân, Phó Giám đốc Rikkei AI, hiện nay năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên các clip do AI tạo nên thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh và hình ảnh không cao.

Ông Tân chỉ ra một số dấu hiệu nhận biết cuộc gọi Deepfake như gương mặt hiển thị ít biểu cảm hơn, hình thể ít di chuyển, cách nói chuyện không giống được hoàn toàn với người thật. Đặc biệt hầu hết các video do Deepfake tạo ra chỉ có phần phía trên của cơ thể và hầu như không quay ngang, ngửa mặt, không có hành động đưa tay dụi mặt hoặc che mặt.

Tuy nhiên, ông Tân cũng cho rằng, người dùng khó có thể phát hiện chi tiết dưới góc độ công nghệ. Vì vậy luôn cảnh giác với những đường links lạ, những yêu cầu thực hiện không hợp lý.

Ngoài ra, cá nhân hoặc tổ chức có thể tìm hiểu một số phần mềm hoặc nền tảng có khả năng phát hiện đó là sản phẩm của Deepfake. “Việc cập nhật tin tức về các hình thức lừa đảo bằng công nghệ hiện nay cũng là cách để tăng cường khả năng đề phòng trước nguy cơ lừa đảo”, ông Tân nói.

Chuyên gia Vũ Thanh Thắng khuyên người dùng khi nhận được cuộc gọi video call có những dấu hiệu bất thường như rất ngắn, hình ảnh mờ nhòe kết hợp đề nghị chuyển tiền thì cần bình tĩnh. Trường hợp này, cần thực hiện một số biện pháp xác minh lại như hỏi rõ người liên hệ về những mối quan hệ trước đó, xác nhận lại những thông tin xung quanh mà tội phạm không thể trả lời được.

“Nếu có thực hiện việc chuyển tiền cũng cần phải kiểm tra thông tin tài khoản, nếu tài khoản không chứa thông tin của người thân thì cũng cần phải xác nhận lại bằng nhiều cách khác. Với cách thức này, kẻ gian hay tội phạm mạng sẽ bộc lộ nhiều vấn đề và chúng ta có thể dễ dàng phát hiện ra sự giả mạo”, ông Thắng nói.

Theo Nguyễn Hoài

Tiền Phong

CÙNG CHUYÊN MỤC

XEM
Trở lên trên