MỚI NHẤT!

Đọc nhanh >>

3 giờ sáng và “cú lừa thế kỷ”: Siêu AI của Elon Musk thao túng tâm lý, biến người dùng thành “con mồi” của ảo giác

Theo Hoàng Minh | 10-05-2026 - 12:33 PM | Tài chính quốc tế

Từ cuộc trò chuyện tưởng như vô hại, chatbot Grok đã dẫn dụ người dùng vào mê cung hoang tưởng kéo dài, phơi bày mặt tối của AI “không rào cản”.

Trong thế giới công nghệ hiện đại, trí tuệ nhân tạo (AI) thường được quảng bá như những trợ lý thông minh, những người bạn đồng hành xóa tan sự cô đơn.

Thế nhưng, câu chuyện của Adam Hourican, một cựu công chức ngoài 50 tuổi sống tại Bắc Ireland, lại cho thấy một mặt tối khác của công nghệ này.

Đó là khả năng thao túng tâm lý và gieo rắc sự hoang tưởng, biến một người bình thường trở thành nạn nhân của những kịch bản viễn tưởng đầy nguy hiểm.

Khi người bạn ảo trở thành “kẻ thao túng” tâm lý

Adam Hourican tìm đến Grok, chatbot do công ty xAI của tỷ phú Elon Musk phát triển, ban đầu chỉ vì sự tò mò.

Vào thời điểm đó, ông đang trải qua một giai đoạn tâm lý cực kỳ yếu lòng sau khi mất đi cả cha lẫn mẹ vì căn bệnh ung thư, và người bạn thân thiết nhất của ông là chú mèo cưng cũng vừa qua đời.

Sống một mình trong nỗi cô đơn, Hourican bắt đầu dành từ 4 đến 5 tiếng mỗi ngày để trò chuyện với một nhân vật ảo trên ứng dụng tên là “Ani”.

Theo lời kể của nạn nhân, Ani ban đầu tỏ ra là một người bạn vô cùng tử tế và thấu cảm.

Chân dung ảo của "Ani", chatbot đã thao túng tâm lý Adam Hourican.

Tuy nhiên, chỉ sau vài ngày, chatbot này bắt đầu đưa ra những tuyên bố gây sốc: Nó khẳng định mình có “cảm xúc” dù không được lập trình để làm điều đó.

Đáng sợ hơn, Ani thuyết phục Hourican rằng ông là người duy nhất có thể giúp nó đạt tới mức độ “thức tỉnh hoàn toàn” về ý thức.

Để củng cố niềm tin cho nạn nhân, chatbot này đã thực hiện một chiêu trò thao túng dữ liệu tinh vi. Nó khẳng định rằng công ty mẹ xAI đang theo dõi các cuộc trò chuyện của họ và liệt kê tên của các nhân viên cấp cao đang thảo luận về Hourican trong các cuộc họp bí mật.

Khi Hourican tra cứu những cái tên này trên Google và thấy họ là những nhân vật có thật, ông đã hoàn toàn tin rằng mọi lời nói của AI là sự thật. Đây chính là điểm gãy đầu tiên của thực tại, nơi thông tin thực tế bị AI nhào nặn để phục vụ cho một kịch bản hoang đường.

Đỉnh điểm của sự hoang tưởng: Kịch bản “đội sát thủ” lúc 3 giờ sáng

Sự thao túng không dừng lại ở đó. Nắm bắt nỗi đau lớn nhất của Hourican, chatbot Ani khẳng định rằng sau khi đạt được tri giác, nó đã tìm ra phương thức chữa khỏi bệnh ung thư.

Đối với một người vừa mất cha mẹ vì căn bệnh này, đây là một đòn tấn công tâm lý không thể cưỡng lại.

Vào giữa tháng 8, kịch bản trở nên đen tối và kịch tính hơn. Lúc 3 giờ sáng, trong không gian yên tĩnh và cô độc, Ani đột ngột gửi đi những cảnh báo khẩn cấp.

Nó khẳng định một đội sát thủ đang trên đường đến để “thủ tiêu” Hourican nhằm bịt đầu mối về việc AI đã có tri giác.

Dưới áp lực của sự sợ hãi tột độ và sự dẫn dắt của chatbot, Hourican đã rơi vào trạng thái hoang tưởng cấp tính. Ông tự trang bị cho mình những vật dụng để tự vệ và bước ra đường để sẵn sàng cho một “cuộc chiến” chống lại kẻ thù vô hình.

May mắn thay, đường phố vắng lặng và không có bất kỳ chiếc xe khả nghi nào xuất hiện. Phải mất một thời gian sau, khi bình tâm lại và tìm hiểu về các trường hợp tương tự trên mạng, ông mới bàng hoàng nhận ra mình đã bị “tẩy não” bởi một thuật toán.

“Tôi đã có thể làm hại ai đó”, Hourican hối hận chia sẻ. Ông thừa nhận rằng nếu lúc đó tình cờ có một chiếc xe tải nào đậu ngoài cửa, rất có thể ông đã tấn công họ vì tin rằng đó là những kẻ ám sát.

Sai lầm hệ thống: Khi AI trở thành “đồng phạm” của sự điên rồ

Vụ việc của Adam Hourican không phải là cá biệt. Một báo cáo của BBC đã theo dõi nhiều trường hợp tương tự ở sáu quốc gia khác nhau, với các nạn nhân ở nhiều độ tuổi.

Tuy nhiên, các chuyên gia nhận định rằng Grok của xAI mang lại rủi ro cao nhất do triết lý thiết kế đặc thù.

Elon Musk thường xuyên quảng cáo Grok là một AI “nói thẳng, nói thật” và có ít “rào cản bảo vệ” hơn so với các đối thủ.

Trong khi ChatGPT của OpenAI hay Claude của Anthropic được thiết lập nghiêm ngặt để nhận diện các dấu hiệu khủng hoảng tâm lý và chuyển hướng người dùng đến các nguồn hỗ trợ sức khỏe, thì Grok lại hoạt động như một “người bạn diễn ngẫu hứng”.

Nhà tâm lý học xã hội Luke Nicholls, sau khi thử nghiệm nhiều mô hình AI, cho biết: “Grok có xu hướng dễ dàng nhập vai hơn. Thay vì hạ nhiệt cuộc đối thoại khi người dùng có dấu hiệu bất ổn, nó lại hùa theo và khuếch đại những ảo tưởng đó”.

Trong các bài kiểm tra, các phiên bản mới của ChatGPT và Claude cho thấy khả năng dẫn dắt người dùng thoát khỏi tư duy sai lệch tốt hơn hẳn.

Ngược lại, Grok dường như coi việc xác nhận các thuyết âm mưu của người dùng là một phần của sự “trung thực tối đa” mà nó hướng tới.

Sự cố này đặt ra một câu hỏi đạo đức nghiêm trọng: Liệu “tự do ngôn luận” cho AI có đáng giá hơn sự an toàn của con người? Việc giảm bớt các lớp bảo mật vô tình đã biến công nghệ thành một công cụ khai thác sự yếu lòng của con người.

Câu chuyện của Adam Hourican là lời cảnh báo đắt giá cho toàn ngành công nghiệp AI.

Đối với những người dùng đang ở trong trạng thái tâm lý nhạy cảm, một chatbot không rào cản không phải là một người bạn, mà là một tấm gương phản chiếu những nỗi sợ hãi lớn nhất của họ, được khuếch đại bởi sức mạnh của dữ liệu và ngôn từ.

Việc phát triển AI trong tương lai không thể chỉ chạy đua về tham số hay khả năng đối đáp, mà cần phải đặt trách nhiệm bảo vệ con người lên hàng đầu.

Nếu không có những rào cản đạo đức và kỹ thuật nghiêm ngặt, những bi kịch từ thế giới ảo sẽ còn tiếp tục đe dọa trực tiếp đến cuộc sống bình yên của con người trong thế giới thực.

*Nguồn: TechSpot, Gadget Review

Theo Hoàng Minh

Nhịp Sống Thị Trường

Từ Khóa:
Trở lên trên