Cảnh báo lừa đảo bằng AI làm giả giọng nói
Với hai công cụ trí tuệ nhân tạo là ChatGPT và ứng dụng tạo giọng nói, tội phạm có thể kết hợp thành dữ liệu giọng nói trò chuyện qua điện thoại để đánh lừa người dùng.
- 29-03-2023Tình tiết mới nhất từ vụ FTX: 'Sam xoăn' bị tố hối lộ quan chức Trung Quốc ít nhất 40 triệu USD, truy cập trái phép tài khoản chứa 1 tỷ USD tiền số
- 29-03-2023Meta lên kế hoạch trả thưởng thấp hơn cho một số nhân viên
- 29-03-2023Vẫn còn hàng triệu thuê bao có nguy cơ bị khóa sau ngày 31/3/2023
Khi đôi tai không còn đáng tin…
Hãy tưởng tượng bạn vừa trở về nhà sau một ngày dài làm việc và chuẩn bị ngồi xuống ăn tối bên gia đình thì đột nhiên di động của bạn đổ chuông. Ở đầu dây bên kia là một người thân trong nhà, có thể là bố mẹ, con cái hoặc một người bạn lâu năm. Người thân đang gặp tai nạn cấp bách và cầu xin bạn gửi tiền cho họ ngay lập tức.
Bạn lơ mơ chưa hiểu gì và cố gắng hỏi một vài câu để nắm thông tin. Đầu dây bên kia khựng lại đôi chút và bắt đầu chậm rãi trả lời, họ nêu lý do hơi mơ hồ và giọng điệu có gì khác thường.
Tuy nhiên, bạn chắc chắn đó là người thân của mình vì giọng nói đó không thể lẫn đi đâu được. Hơn thế nữa số điện thoại đúng là của người thân quen. Lo lắng và muốn trấn an người thân, bạn nhanh chóng gửi tiền vào tài khoản ngân hàng vừa được cung cấp.
Sáng hôm sau, bạn gọi lại để hỏi thăm tình hình của người thân như thế nào sau biến cố tối qua. Người thân trả lời rằng mọi thứ đều ổn và băn khoăn không hiểu bạn đang đề cập đến chuyện gì.
Bạn sững sờ và lờ mờ hiểu rằng mình đã bị lừa bằng công nghệ tinh vi. Không có người thân nào gọi cho bạn tối qua cả, mà chỉ có kẻ gian sử dụng công nghệ giả giọng nói (Voice Deepfake) và biến bạn trở thành nạn nhân của hình thức lừa đảo mới. Hàng nghìn người đã bị lừa theo cách này vào năm 2022.
Tỷ lệ người dùng nhận ra giọng nói giả chỉ là 57% - Ảnh: Shutterstock
Làm giả giọng nói như thế nào
Vài năm trở lại đây, đa phần người dùng đã biết tới các video sử dụng công nghệ Deepfake để làm giả khuôn mặt của người nổi tiếng thông qua các thuật toán có khả năng thay thế những đặc điểm nhận dạng của một cá nhân bằng người khác. Video Deepfake tinh vi đến mức mọi thứ trông giống hệt như thật mà không mấy ai nghi ngờ. Giờ đây tới lượt công nghệ làm giả giọng nói (Voice Deepfake).
Theo HowToGeek, Voice Deepfake là khái niệm giả giọng nói bằng thuật toán, tạo ra tổ hợp giọng nói mới không thể phân biệt được với giọng nói người thật.
"Nghĩ đơn giản thì giống như ứng dụng Photoshop nhưng dành cho giọng nói vậy", Zohaib Ahmed, CEO của Resemble AI nói về công nghệ nhân bản giọng nói mà công ty đang phát triển.
Tuy nhiên, làm Photoshop dở thì rất dễ bị phát hiện, còn với Deepfake âm thanh, một công ty bảo mật tiết lộ tỷ lệ người thường có thể xác định đoạn âm thanh là giả hay thật chỉ 57%, không khá hơn việc tung đồng xu may rủi là bao. Bên cạnh đó, nhiều bản ghi giọng nói lấy từ ghi âm cuộc gọi với chất lượng thấp, hoặc ghi trong môi trường nhiều tiếng ồn nên Voice Deepfake càng dễ khiến người nghe nhầm lẫn. Chất lượng âm thanh càng kém thì càng khó để phát hiện bản ghi là giả.
Tổng số tiền nạn nhân bị lừa bằng hình thức lừa đảo giọng nói lên tới 11 triệu USD trong năm 2022 - Ảnh: AP
Để làm giả giọng nói cũng không phải đơn giản. Công việc này đòi hỏi nhiều nguồn lực và cả năng lực kỹ thuật ở mức nhất định. Ai muốn tạo giọng nói sẽ cần một tệp dữ liệu của giọng nói đích, đưa các dữ liệu này chạy qua chương trình tạo giọng nói giả.
Ngày càng có nhiều dịch vụ hỗ trợ có tính phí để tạo giọng nói có chất lượng từ trung bình đến cao. Một số công cụ giả mạo giọng nói chỉ yêu cầu người dùng nhập giọng nói mẫu dài một phút hoặc thậm chí chỉ vài chục giây.
Tuy nhiên, để thuyết phục một người thân quen - như trong ví dụ lừa đảo chuyển tiền kể trên - sẽ cần số lượng mẫu lớn hơn đáng kể.
Chia sẻ với Channel News Asia, hai chuyên gia bảo mật Matthew và Christopher Schwartz đến từ Học viện Công nghệ Rochester, Mỹ cho biết, với những tiến bộ không ngừng trong thuật toán học sâu, cải tiếng kỹ thuật và chỉnh sửa âm thanh khiến cho chất lượng các giọng nói được tạo bởi máy tính ngày càng khó phân biệt với giọng người thật.
Năm 2019, một công ty năng lượng tại Mỹ bị lừa 243 nghìn USD khi tội phạm mô phỏng giọng nói của lãnh đạo công ty, yêu cầu nhân viên chuyển tiền cho một nhà cung cấp.
Trong năm 2022, tổng số tiền người dùng bị lừa bằng hình thức lừa đảo mô phỏng giọng nói người thân đã lên tới 11 triệu USD.
Tệ hơn nữa, các chatbot như ChatGPT với khả năng trả lời hội thoại thời gian thực có thể kết hợp với ứng dụng tạo giọng nói từ văn bản để xây dựng một phiên bản số như thật của một cá nhân nào đó. Kẻ gian có thể sử dụng các công cụ này để tăng cường thực hiện các hành vi lừa đảo người nghe.
Các chatbot kết hợp chương trình tạo giọng nói có thể trở thành công cụ lừa đảo nguy hiểm - Ảnh: Forbes
Bảo vệ bản thân trước nguy cơ mới
Chuyên gia bảo mật lưu ý, để bảo vệ bản thân hãy cảnh giác với các cuộc gọi khẩn cấp. Cúp máy và gọi lại kiểm tra với người thân trước khi thực hiện bất kỳ lệnh chuyển tiền nào. Bạn không cả tin và chỉ nhìn vào số điện thoại di động, tài khoản mạng xã hội và dám chắc đó là người nhà của mình. Các thông tin này đều có thể bị làm giả hoặc thông tin cá nhân của người thân đã bị kẻ gian đánh cắp.
Hãy chủ động xác minh với người gọi. Ví dụ bạn nhận được cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.
Cuối cùng, hãy lưu giữ cẩn thận thông tin cá nhân của bạn, như số Căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái và thú cưng của bạn. Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân hàng và những người khác. Những lời khuyên cơ bản này là chìa khóa để bảo vệ bạn khỏi bị thao túng tâm lý và tỉnh táo xử lý trong trường hợp bị kẻ gian nhắm tới.
Nguồn tham khảo: Channel News Asia, Forbes, BBC
VTV