Nghe điện thoại "cầu cứu" từ bạn, người đàn ông mất luôn 140 triệu: Cảnh báo chiêu lừa đảo tinh vi hơn
Sự việc như một lời cảnh tỉnh cho tất cả mọi người nên tỉnh táo trong mọi trường hợp, dù cho phía đầu dây bên kia đang "cấp bách" đến đâu.
- 21-08-2023Nộp lệ phí để vay tiền không thế chấp, người phụ nữ bị lừa gần 100 triệu đồng chỉ sau vài cuộc gọi
- 17-08-2023Lên mạng nhờ lấy lại tiền bị lừa đảo, nhiều người cay đắng "sập bẫy" lần 2
- 11-08-2023Mạo danh bác sĩ Bệnh viện Trung ương Quân đội 108 lừa người bệnh
Mới đây, CTV News Toroto, Canada đưa tin, Vaughan, một người đàn ông ở Ontario đã mất 8000 đô, tương đương khoảng hơn 140 triệu đồng tiền Việt bởi một cuộc điện thoại mạo danh, dưới hình thức lừa đảo bởi trí tuệ nhân tạo tinh vi hơn.
Cụ thể, kẻ lừa đảo đã sử dụng trí tuệ nhân tạo để giả giọng nói của bạn nạn nhân. Nạn nhân cho biết anh nhận được một cuộc gọi từ số lạ, song người này lại tự xưng là bạn của anh. Đồng thời còn kể ra dự định đi câu cá của cả 2 vào thời gian tới. "Tôi thực sự đã tin đó là bạn của tôi, Sam, vì giọng nói nghe rất giống anh ấy", Vaughan chia sẻ.
"Người phía bên kia đầu dây đã giả dạng bạn tôi và nói rằng anh ta cần khoảng 8000 đô để bảo lãnh. Anh ta đang bị bắt vì nhắn tin khi lái xe, gây ra một vụ tai nạn nghiêm trọng. Từ giọng nói đến phong cách nói chuyện cũng giống hệt bạn tôi, vì vậy tôi đã bị đánh lừa hoàn toàn", nạn nhân nói thêm.
Nạn nhân chia sẻ mình đã hoàn toàn tin vào giọng nói trong cuộc gọi và bị lừa mất 8000 USD (Ảnh CTV News Toroto)
Không dừng lại ở đó, sau khi kết thúc cuộc điện thoại với người được cho là bạn của nạn nhân, một cuộc gọi khác đến với Vaughan. Lần này, kẻ lừa đảo tự xưng là luật sư của người đàn ông kia. Sau nhiều bước giả mạo tinh vi, cuối cùng Vaughan đã nhanh chóng chuyển 8000 đô để bảo lãnh bạn mình.
Thậm chí sau khi đã có được số tiền khủng, những kẻ lừa đảo vẫn tiếp tục định "bòn" thêm tiền của con mồi. Tuy nhiên đến lúc này, Vaughan đã nảy sinh nghi ngờ. Anh quyết định gọi cho Sam - người bạn bị giả danh của mình để kiểm tra tình hình. Bất ngờ thay, Sam nói rằng mình vẫn ổn, không hề bị bắt, không hề gây ra vụ tai nạn nào và hoàn toàn không biết chuyện gì đang xảy ra.
"Sau khi tôi đã chuyển tiền, kẻ lừa đảo gọi lại cho tôi. Lúc đó tôi đã nghĩ rằng có gì đó không ổn. Tôi nói rằng tôi biết anh ta không phải bạn tôi. Đầu dây bên kia dừng lại vài giây rồi ngay lập tức chuyển sang một giọng nói hoàn toàn khác. Tôi nghĩ khi đó nó không còn được AI hỗ trợ nữa", nạn nhân cho biết.
Hình thức lừa đảo ngày một tinh vi
Theo Ủy ban Thương mại Liên bang (FTC), việc tội phạm sử dụng trí tuệ nhân tạo để giả mạo, nhân bản giọng nói để mạo danh bạn bè hoặc các thành viên trong gia đình là một vấn đề nghiêm trọng và đang có xu hướng gia tăng ở Canada. Trong thời gian ngắn, FTC đã nhận được nhiều đơn tố giác và khiếu nại kiểu lừa đảo bằng giọng nói qua điện thoại như thế này.
Cũng theo báo cáo từ FTC, vào năm ngoái, các vụ lừa đảo mạo danh đã lừa những nạn nhân con số lên tới 2,6 tỷ USD - một con số cực khủng.
Lois Greisman, một đại diện từ FTC cho biết, hiện nay, việc nhân bản giọng nói đã trở thành một vấn đề lớn mà mọi người cần hiểu biết và bình tĩnh để xử lý trong mọi trường hợp để không bị mắc bẫy của những kẻ lừa đảo.
Công nghệ giả mạo của những kẻ lừa đảo ngày một tinh vi hơn (Ảnh minh họa)
Khi các công nghệ càng được cải tiến, thì thủ đoạn của những kẻ lừa đảo cũng ngày một tinh vi hơn và chúng lợi dụng chính công nghệ để lừa đảo những nạn nhân nhẹ dạng, cả tin. Bên cạnh đó, chúng sẽ sử dụng một mẫu số chung cho tất cả những hành vi, loại hình lừa đảo. Đó là tạo ra cảm giác cấp bách khi người gọi vội vàng xin, vay một số tiền lớn vì trường hợp khẩn cấp.
Trước đó, những kẻ lừa đảo được phát hiện "yêu thích" sử dụng công nghệ Video Deepfake để làm giả khuôn mặt. Thì giờ đây tới lượt công nghệ làm giả giọng nói - Voice Deepfake.
"Việc nhân bản hay giả giọng nói hiện nay là có thật. Những kẻ lừa đảo có thể lấy một đoạn giọng nói thật của bạn và tái tạo nó, chuyển thành những nội dung chúng mong muốn. Hầu như rất khó để phân biệt được đâu là giọng nói thật và giọng nói từ AI", đại diện FTC nói thêm.
Để có được giọng nói giả của bạn, những kẻ lừa đảo chỉ cần vài giây phát biểu của bạn. Chúng có thể ghi âm trực tiếp, lấy từ mạng xã hội hoặc thậm chí lấy từ những cuộc điện thoại mà bạn trả lời.
Chính vì vậy, các chuyên gia khuyến cáo, khi nhận được bất kỳ cuộc gọi khẩn cấp nào, từ bất kỳ ai, dù là bạn bè hay người thân trong gia đình, hãy cực kỳ bình tĩnh và tỉnh táo để xác nhận lại các thông tin cần thiết. Có thể là kiểm tra bằng các mật mã đặc biệt, hoặc cúp máy, gọi lại vào số quen thuộc của người thân trước khi thực hiện các lệnh chuyển tiền.
Người dùng phải cực kỳ cẩn thận với những cuộc gọi từ số lạ, miêu tả tình trạng cấp bách (Ảnh minh họa)
Ví dụ, bạn nhận được một cuộc gọi từ số lạ nhưng lại xưng là cha, mẹ, bạn thân mình, hãy cúp máy và gọi cho số máy quen thuộc của họ, hoặc đến gặp trực tiếp nếu ở gần để xác minh thông tin. Đối với các cuộc gọi từ các doanh nghiệp như bảo hiểm, ngân hàng, hãy liên hệ trực tiếp với đường dây nóng chính thức của đơn vị doanh nghiệp đó để kiểm chứng.
Cuối cùng là về những thông tin cá nhân của bản thân như số hộ chiếu, số căn cước công dân, chứng minh thư nhân dân, thậm chí là cả số điện thoại, địa chỉ nhà riêng, địa chỉ nơi làm việc, ngày tháng năm sinh của chính mình, tên tuổi của người thân thiết..., người dùng nên lưu giữ và bảo mật cẩn thận. Hạn chế công khai đăng tải những thông tin này trên mạng xã hội bởi những kẻ lừa đảo có thể sử dụng chúng để thực hiện những hành vi với mục đích xấu.
Phụ nữ số