Nhìn vào điện thoại người lạ vài giây, người phụ nữ hốt hoảng khi tối về nhận thông báo đang vay 1,7 tỷ
Điện thoại vẫn nằm trong tay, nhưng quyền kiểm soát đã thuộc về người khác.
- 25-12-20251.000 sinh viên bị nợ hàng chục tỷ đồng tiền sinh hoạt phí: Đại học Sài Gòn lên tiếng, "mong thông cảm"
- 25-12-2025Lần lượt đến nhà con trai và viện dưỡng lão, tôi mới phát hiện: Có 1 nơi nghỉ hưu tuyệt vời để tuổi già an nhàn, hạnh phúc
- 25-12-2025Không phải lá lốt hay mướp đắng, loại nguyên liệu này đem nhồi thịt ngon bất ngờ, hầu hết chị em chưa từng thử
Một vụ lừa đảo chấn động tại Hàng Châu (Trung Quốc) đã gióng lên hồi chuông cảnh báo về sự nguy hiểm của công nghệ AI. Nạn nhân là một người mẹ trẻ đang đưa con đi dạo tại trung tâm thương mại thì một người lạ mặt tiếp cận với vẻ mặt hớt hải.
Kẻ này đưa ra một kịch bản rất đáng thương: "Điện thoại em gặp sự cố, em cần quay một đoạn video gửi cho người nhà để làm bằng chứng chuyển tiền gấp. Chị làm ơn đứng trước camera máy em, đọc hộ em số tài khoản của chị để người nhà em tin là thật."
Vì nghĩ rằng mình không hề đưa điện thoại cá nhân cho người lạ, cũng không nhấn vào đường link hay cung cấp mật khẩu nào nên người phụ nữ đã đồng ý giúp đỡ. Cô nhìn thẳng vào camera máy của kẻ lạ mặt, đọc to dãy số và thực hiện các động tác chớp mắt, há miệng theo hướng dẫn của hắn để “lấy nét cho rõ”.
Kết quả là chỉ vài giờ sau, điện thoại cô liên tục báo tin nhắn về 6 khoản vay tài chính thành công. Tổng số nợ lên đến 480.000 NDT (khoảng 1,7 tỷ VNĐ) mà cô không hề hay biết.
Tại sao "không chạm vào máy mình" vẫn mất tiền?
Nhiều người lầm tưởng rằng chỉ cần giữ chặt điện thoại cá nhân là an toàn. Tuy nhiên, trong thời đại AI, chính khuôn mặt và giọng nói của bạn mới là "chiếc chìa khóa vạn năng".
Kẻ gian thực hiện quy trình lừa đảo theo 3 bước sau.
Bước 1: Thu thập dữ liệu. Việc nhờ nạn nhân đọc dãy số trên máy của chúng thực chất là để thu âm mẫu giọng nói (Voiceprint) chất lượng cao. Việc yêu cầu nhìn vào camera, chớp mắt, há miệng là để ghi lại các cử động sinh trắc học – thứ mà các ứng dụng ngân hàng dùng để xác thực “người thật” (Liveness Detection).
Bước 2: Chế bản "Bản sao kỹ thuật số". Sau khi có video gốc, chúng sử dụng các phần mềm Deepfake chuyên dụng để tạo ra một bản sao kỹ thuật số của nạn nhân. Bản sao này có thể nói bất cứ điều gì và thực hiện bất cứ động tác xác thực nào một cách mượt mà.
Bước 3: Vượt rào xác thực ngân hàng. Khi đăng nhập vào các ứng dụng vay tiền bằng thông tin cá nhân của nạn nhân (đã được thu thập từ trước qua các nguồn rò rỉ dữ liệu), hệ thống sẽ yêu cầu quét mặt. Thay vì đưa mặt thật, kẻ gian sử dụng các công cụ truyền hình ảnh AI trực tiếp vào luồng camera của ứng dụng. Hệ thống AI của ngân hàng bị đánh lừa hoàn toàn vì hình ảnh khớp 100% với dữ liệu sinh trắc học của nạn nhân.
Sở dĩ kẻ gian có thể thực hiện thành công bước cuối cùng là do chúng thường đã có sẵn thông tin cơ bản của nạn nhân (Số căn cước, số điện thoại) từ các chợ đen dữ liệu hoặc từ chính những thông tin bạn chia sẻ công khai trên mạng xã hội. Video quay trực tiếp tại hiện trường chỉ là “mảnh ghép cuối cùng” để chúng hoàn thiện hồ sơ vay vốn.
Lời khuyên từ chuyên gia
Chuyên gia an ninh mạng khuyến cáo người dân tuyệt đối không thực hiện các hành động mang tính chất định danh như nhìn thẳng vào camera, chớp mắt, há miệng hoặc quay đầu theo yêu cầu của người lạ. Việc bạn đứng trước ống kính của một người không quen biết và thực hiện các cử động này thực chất là đang giúp tội phạm hoàn thiện quy trình xác thực "người thật".
Bên cạnh đó, mẫu giọng nói của mỗi cá nhân, đặc biệt là khi đọc các dãy số, cũng là một tài liệu sinh trắc học vô giá đối với những kẻ lừa đảo. Bạn nên đặc biệt cảnh giác với các yêu cầu đọc to các chữ số hoặc đoạn văn bản trước máy quay của người khác, vì chúng có thể được dùng để tổng hợp thành các lệnh chuyển tiền bằng giọng nói. Thay vì chỉ phụ thuộc vào các hình thức xác thực sinh trắc học vốn có thể bị giả mạo bởi AI, người dùng nên chủ động thiết lập thêm nhiều lớp bảo mật khác.
Cuối cùng, sự tỉnh táo trong việc chia sẻ thông tin cá nhân trên mạng xã hội cũng đóng vai trò then chốt trong việc ngăn chặn các vụ lừa đảo này từ sớm. Khi nhận thấy bản thân đã lỡ cung cấp hình ảnh hoặc giọng nói cho người lạ trong những tình huống nghi vấn, việc đầu tiên cần làm là lập tức liên hệ với tổng đài ngân hàng để tạm khóa các dịch vụ tài chính trực tuyến. Việc chủ động cập nhật các thủ đoạn công nghệ mới và chia sẻ cho người thân, đặc biệt là người già và trẻ em, sẽ giúp xây dựng một mạng lưới phòng thủ tâm lý hiệu quả trước những kịch bản lừa đảo ngày càng tinh vi của tội phạm AI.
Phụ nữ mới
CÙNG CHUYÊN MỤC