"Con bị đâm xe rồi, hãy chuyển tiền ngay": Chi tiết bất thường trong lời kêu cứu giúp người cha thoát bẫy kẻ lừa đảo trong phút chót
Đầu dây bên kia người con trai nói bị tai nạn xe hơi và cần tiền ngay lập tức. Người cha sực tỉnh, nhớ ra một chi tiết vạch mặt kẻ lừa đảo.
- 15-07-2023Cảnh báo chiêu trò giả mạo trang thông tin điện tử cơ quan, doanh nghiệp
- 15-07-2023Một trò lừa đảo với tỷ lệ thành công tới 99%, tất cả mọi người cần phải cảnh giác
- 15-07-2023Trung Quốc ban hành quy định tạm thời về trí tuệ nhân tạo tạo sinh
Tai nạn ảo
Eddie Cumberbatch đang ngồi trong căn hộ ở Chicago vào tháng 4 thì nhận được một cuộc gọi gấp gáp từ cha mình. Ngay khi nghe thấy giọng nói, Eddie, một TikToker 19 tuổi, đã biết có chuyện gì đó sắp xảy ra.
Người bố hỏi Eddie có ở nhà không và mọi thứ có ổn không. "Đó là cách bắt đầu cuộc gọi kỳ lạ”, Eddie nói với Insider.
Sau khi Eddie nói rằng mình ở nhà và an toàn, người bố hỏi anh có bị tai nạn xe hơi không. Eddie cảm thấy khó hiểu - anh không những không bị đâm xe mà còn không lái xe trong sáu tháng qua. Cha anh cảm thấy nhẹ nhõm, nhưng Eddie bối rối: Tại sao bố lại nghĩ mình bị tai nạn xe hơi?
Bố anh giải thích rằng ai đó đã gọi vào điện thoại bàn tại nhà từ một số điện thoại nước ngoài. Khi ông của Eddie nhấc máy, có vẻ như Eddie đang ở đầu dây bên kia.
"Eddie" này cho biết anh ta bị tai nạn xe hơi và cần tiền ngay lập tức. May mắn thay, cha anh tỏ ra nghi ngờ cuộc gọi. Khi người cha nghe thấy ông nội nói về vụ việc qua điện thoại, ông đã gọi ngay cho Eddie để xác minh.
Ông biết việc Eddie xin tiền là điều không thể - hơn nữa, Eddie thậm chí còn không có xe hơi ở Chicago. Cuộc gọi cho Eddie thật đã xác nhận rằng “Eddie” kia là kẻ lừa đảo.
Gia đình của Eddie là mục tiêu của một vụ lừa đảo mới đáng sợ. Kẻ gian đã sử dụng giọng nói nhân tạo của Eddie để cố gắng moi tiền những người thân yêu của anh.
Mạo danh ai đó để ăn cắp tiền không phải là mới. Nhưng công nghệ đang giúp cho những trò lừa đảo mạo danh trở nên nguy hiểm hơn.
Kẻ gian bắt đầu sử dụng trí tuệ nhân tạo để tăng tính thuyết phục cho những trò lừa “tai nạn người thân”, trong đó những kẻ lừa đảo thuyết phục đối tượng rằng thành viên gia đình của họ đang gặp nạn để lấy tiền hoặc khai thác thông tin cá nhân.
Trong một cuộc khảo sát vào tháng 4 đối với người trưởng thành ở 7 quốc gia do công ty phần mềm bảo mật toàn cầu McAfee thực hiện, 1/4 số người được hỏi cho biết họ đã trải qua một số loại lừa đảo bằng giọng nói AI – 1/10 cho biết đã bị nhắm mục tiêu cá nhân, trong khi 15% cho biết điều đó đã xảy ra với người quen.
Chỉ với một khoản phí nhỏ, vài phút và kết nối internet, những kẻ xấu có thể “vũ khí hóa” AI để trục lợi cá nhân. Báo cáo từ McAfee cho thấy, trong một số trường hợp, kẻ lừa đảo chỉ cần ba giây âm thanh để sao chép giọng nói của một người. Và với nền tảng mạng xã hội, thật dễ dàng tìm thấy một đoạn giọng nói của ai đó để lợi dụng.
Trong khi Eddie và gia đình của anh có thể tránh được trò lừa đảo, nhiều nạn nhân khác lại không may mắn như vậy.
Khó bắt được kẻ lừa đảo
Trong một vụ việc thương tâm, Richard Mendelstein, một kỹ sư phần mềm tại Google, đã nhận được một cuộc gọi có tiếng nói giống như con gái Stella của anh đang kêu cứu.
Anh được hướng dẫn rút 4.000 USD tiền mặt như một khoản thanh toán tiền chuộc. Chỉ sau khi gửi tiền đến một trung tâm chuyển tiền ở Mexico City, anh mới biết mình đã bị lừa và con gái anh vẫn an toàn ở trường suốt thời gian qua.
Trước đây, kẻ gian chỉ sử dụng các mẫu giọng nói chung chung phù hợp với độ tuổi và giới tính của đứa trẻ một cách mơ hồ. Những kẻ lừa đảo nhắm vào các bậc cha mẹ đang hoảng sợ khi nghe thấy âm thanh của một đứa trẻ đang sợ hãi, ngay cả khi giọng nói đó không thực sự khớp với giọng nói của con họ.
Nhưng với AI, giọng nói ở đầu bên kia của điện thoại giờ đây có thể nghe giống như thật một cách kỳ lạ.
Tờ Washington Post đưa tin vào tháng 3 rằng một cặp vợ chồng người Canada đã bị lừa 21.000 USD sau khi nghe thấy giọng nói do AI tạo ra giống hệt con trai họ.
Trong một trường hợp khác, những kẻ lừa đảo đã sao chép giọng nói của một cô gái 15 tuổi và đóng giả những kẻ bắt cóc để cố gắng lấy khoản tiền chuộc 1 triệu USD.
Là một nhà sáng tạo trực tuyến với hơn 100.000 người theo dõi trên TikTok, Eddie biết rằng các tài khoản giả mạo bắt chước anh chắc chắn sẽ xuất hiện.
Một ngày trước cuộc gọi lừa đảo, một tài khoản giả mạo của Eddie đã xuất hiện trên Instagram và bắt đầu nhắn tin cho gia đình và bạn bè của anh. AI đang đưa các kế hoạch lên một tầm cao mới.
"Chụp ảnh của tôi và tải bài đăng lên Instagram là một chuyện”, Eddie nói. "Nhưng cố gắng sao chép giọng nói của tôi thực sự là thứ kỳ lạ nhất mà tôi nghĩ đến và nó khiến tôi sợ hãi."
Eddie đã gọi điện cho những người còn lại trong gia đình để cảnh báo họ về trò lừa đảo và làm một video trên TikTok về trải nghiệm của mình để nâng cao nhận thức.
Hầu hết chúng ta có thể nghĩ rằng chúng ta sẽ nhận ra giọng nói của người thân yêu của mình trong tích tắc. Nhưng McAfee nhận thấy khoảng 70% người trưởng thành được khảo sát thiếu tự tin trong việc phân biệt giữa giọng nói nhân bản và giọng nói thật.
Một nghiên cứu năm 2019 cho thấy bộ não không ghi nhận sự khác biệt đáng kể giữa giọng nói thật và giọng nói do máy tính tạo ra. Ngoài ra, ngày càng có nhiều người cung cấp giọng nói thật của họ cho những kẻ lừa đảo: McAfee cho biết 53% người trưởng thành đã chia sẻ dữ liệu giọng nói của họ trực tuyến hàng tuần.
Cho dù đó là một vụ bắt cóc, cướp, tai nạn xe hơi hay đơn giản là bị mắc kẹt ở đâu đó mà không có tiền để về nhà, 45% số người tham gia khảo sát của McAfee cho biết họ sẽ tin người ở đầu dây bên kia, đặc biệt là nếu giọng nói đến từ người yêu, cha mẹ hoặc con cái.
Một khi hành sự thành công, rất khó để bắt được những kẻ lừa đảo bằng giọng nói. Các nạn nhân chỉ có thông tin hạn chế và cảnh sát khó kiểm soát được phạm vi vì kẻ lừa đảo bằng giọng nói hoạt động từ khắp nơi trên thế giới.
Với thông tin tối thiểu và nguồn lực cảnh sát hạn chế, hầu hết các vụ việc đều chưa được giải quyết. Ở Vương quốc Anh, cứ 1.000 trường hợp gian lận thì chỉ có một trường hợp bị buộc tội.
Phụ nữ số