Mánh khóe mới của kẻ lừa đảo qua điện thoại: Giả giọng người thân rồi xin tiền
Ngày nay, những kẻ lừa đảo qua điện thoại đã sử dụng những thủ thuật xảo quyệt và tinh vi hơn để lừa đảo, khiến chúng ta khó có thể phân biệt được thật giả.
- 24-04-2023Lừa đảo tinh vi qua tin nhắn khiến cô gái mất hàng trăm triệu trong tài khoản ngân hàng
- 17-04-2023Lừa đảo ‘Cún cưng săn mồi’: Nhiều người mất tiền oan chỉ sau vài giây ngắm 1 bức ảnh, Google phát cảnh báo khẩn
- 13-04-2023Chiêu trò lừa đảo luôn bắt đầu bằng tin nhắn chỉ có 2 từ: Nhiều người tin sái cổ, chuyển tiền ngay lập tức!
Mới đây, một người làm sáng tạo nội dung sống tại Mỹ, Brooke Bush đã chia sẻ câu chuyện hy hữu mình gặp phải. Một kẻ lừa đảo đã sử dụng trí tuệ nhân tạo nhái lại giọng của em trai cô rồi gọi cho ông của cô và cầu cứu vì đang gặp tai nạn. Đầu dây bên kia thốt lên: “Ôi cháu gặp tai nạn rồi ông ơi”, và đường dây liên lạc sau đó bị gián đoạn ngay lập tức.
Ông của Bush rất hoảng sợ và không biết làm gì cả, nên ông đành gọi cho Bush. Trong video giải thích, cô vừa nói vừa khóc: “Tôi đã khóc suốt 2 tiếng và cảm thấy cực kỳ lo lắng. Tôi cứ ngỡ rằng em trai chết”.
Sau đó cô liên tục lái xe đi tìm em trai qua định vị trên điện thoại nhưng em trai không bắt máy. Cô thật sự rơi vào trạng thái hoảng loạn tột độ khi nhận được cuộc gọi thứ hai từ ông. Ông giải thích rằng em trai cô bị tống giam sau khi đã đâm chết một người trong vụ tai nạn ô tô và hiện tại cần một số tiền bảo lãnh để được ra khỏi tù.
Thế nhưng phải một lúc lâu sau đó, khi bình tĩnh trở lại và xem xét mọi chuyện, cô mới biết mình đang bị lừa bởi một thủ đoạn tinh vi. Kẻ lừa đảo đang cố gắng nhắm vào ông cô bằng cách giả dạng làm cháu trai rồi lừa tiền.
Được biết, có thể kẻ lừa đảo đã giả giọng em trai cô, Clayton Bush, một cầu thủ bóng đá có lượng người theo dõi khá lớn trên Instagram. Bush hy vọng rằng câu chuyện mà cô đã chia sẻ sẽ giúp mọi người có thêm nhận thức và cảnh giác đối với thủ đoạn lừa đảo kiểu mới.
Lừa đảo bằng công nghệ AI lên ngôi
Trong thời gian qua, cảnh sát đã ghi nhận nhiều trường hợp kẻ lừa đảo sử dụng công nghệ AI để tạo giọng nói giả nhằm lừa gạt người quen của nạn nhân. Vào tháng 3, Ủy ban Thương mại Liên bang đã cảnh báo về những cuộc gọi mạo danh những thành viên trong gia đình hoặc người quen.
Cụ thể, bạn sẽ nghe thấy một âm thanh rất giống người thân của mình ở đầu dây bên kia nhưng thực chất đây chỉ là giả mạo. Chúng có thể lấy giọng của người thân bạn từ video họ đăng tải lên mạng xã hội, hoặc chúng có thể gọi điện và nói chuyện với họ rồi lén thu giọng.
NBC gần đây cũng đưa tin về người cha nhận được cuộc điện thoại từ một người giả mạo giọng con gái anh, nói rằng cô bé đang bị bắt cóc và cần một số tiền chuộc.
Theo New York Post, một vụ lừa đảo tương tự đã xảy ra với một người mẹ ở Mỹ, khi cô nhận được cuộc điện thoại từ một kẻ lừa đảo đe dọa đòi tiền chuộc lên tới 24,8 tỷ VNĐ vì đã bắt cóc con gái cô. Nhưng thực tế, cô bé đang đi trượt tuyết.
Những phương pháp phòng tránh lừa đảo
Câu chuyện của Brooke Bush đã được lan truyền nhanh chóng trên mạng xã hội. Video chia sẻ của cô lên tới gần 2 triệu lượt xem. Những người bình luận thể hiện sự bất bình và lo sợ trước tình trạng lừa đảo bằng công nghệ hết sức tinh vi. Họ cũng chia sẻ những phương pháp nhận diện và phòng chống những trường hợp lừa đảo trên.
Có người khuyên: “Nếu bạn nhận được một cú điện thoại nói rằng gia đình bạn đang gặp nguy hiểm, đừng hoảng sợ. Hãy bình tĩnh để xác nhận danh tính người gọi bằng cách hỏi những câu hỏi riêng tư, chỉ có gia đình bạn mới biết”.
Một bình luận cũng chỉ ra cách sau: “Hãy cảnh giác với bất kỳ yêu cầu chuyển tiền nào. Tôi đã cảnh báo cho gia đình về những vụ lừa đảo như trên, và chúng tôi đã có ‘mật mã’ riêng mà chỉ có người trong gia đình mới biết”.
Phụ nữ Việt Nam