TIN MỚI!

Đọc nhanh >>

VN-Index:

GTGD: tỷ VNĐ

HNX-Index:

GTGD: tỷ VNĐ

Chuyện người đàn ông dùng công nghệ AI để “hồi sinh” vợ chưa cưới đã mất và lời cảnh báo về góc khuất sau “thế thân ảo” của các chuyên gia tạo ra nó

27-07-2021 - 16:07 PM | Sống

Chuyện người đàn ông dùng công nghệ AI để “hồi sinh” vợ chưa cưới đã mất và lời cảnh báo về góc khuất sau “thế thân ảo” của các chuyên gia tạo ra nó

"Thế nhân ảo từ công nghệ AI" – thứ khiến nhân loại trầm trồ thán phục nhưng cũng gieo rắc bao nỗi sợ hãi.

Câu chuyện của Joshua Barbeau - một nhà văn tự do 33 tuổi sống ở Bradford, Canada - không khác gì một cuốn tiểu thuyết khoa học viễn tưởng lãng mạn đầy xúc động. 

Năm 2012, hôn thê Jessica Pereira của anh qua đời ở tuổi 23 vì một căn bệnh hiếm gặp. Barbeau tưởng chừng như đã không thể vượt qua được cú sốc đó. Và rồi, anh tình cờ phát hiện ra một phần mềm có tên là Project December, nơi anh có thể nói chuyện với Pereira dù cô ấy đã mất. 

Nói đúng hơn, Barbeau đã nói chuyện với một chatbot được lập trình mô phỏng người vợ chưa cưới đã khuất của anh.

Chuyện người đàn ông dùng công nghệ AI để “hồi sinh” vợ chưa cưới đã mất và lời cảnh báo về góc khuất sau “thế thân ảo” của các chuyên gia tạo ra nó - Ảnh 1.

Người đàn ông dùng công nghệ AI để “hồi sinh” vợ chưa cưới đã mất

Chia sẻ với báo San Francisco Chronicle, Barbeau đã trình bày chi tiết về cách mà Project December - phần mềm sử dụng công nghệ trí tuệ nhân tạo tạo ra các chatbot siêu thực giúp anh có các trải nghiệm giao tiếp trao đổi với vị hôn thê đã mất của mình. Tất cả những gì Barbeau phải làm là nhập các tin nhắn cũ, cung cấp một số thông tin cơ bản. Từ đó, một mô hình mô phỏng người thân của anh được tạo ra với độ chính xác đáng kinh ngạc, giống hệt như nguyên mẫu.

Nghe có vẻ như một phép màu, Chatbot được sử dụng để xoa dịu bạn bè hay gia đình của người đã khuất giống như phân cảnh trong bộ phim Black Mirror do Netflix sản xuất. Thế nhưng, những chuyên gia ra nó lại cảnh báo rằng công nghệ này có thể được sử dụng để thúc đẩy các chiến dịch thông tin sai lệch hàng loạt.

Chuyện người đàn ông dùng công nghệ AI để “hồi sinh” vợ chưa cưới đã mất và lời cảnh báo về góc khuất sau “thế thân ảo” của các chuyên gia tạo ra nó - Ảnh 2.

GPT-3 là mô hình tạo văn bản AI dựa trên ngôn ngữ phức tạp và nguy hiểm nhất

Project December sử dụng công nghệ GPT-3, một mô hình AI được thiết kế bởi nhóm nghiên cứu OpenAI của Elon Musk. Bằng cách sử dụng bộ dữ liệu văn bản khổng lồ do con người tạo ra, GPT-3 có thể bắt chước chữ viết của con người, tạo ra mọi thứ từ các bài viết mang tính học thuật đến những lá thư tình của con người.

GPT-3 được xem là mô hình tạo văn bản AI dựa trên ngôn ngữ phức tạp và nguy hiểm nhất cho đến nay.

Khi OpenAI ra mắt GPT-2, tiền thân của GPT-3, họ cho biết rằng nó quá nguy hiểm để công bố phiên bản đầy đủ vì nguy cơ nó có thể bị sử dụng theo "những cách độc hại". Tổ chức này dự đoán những kẻ xấu sử dụng công nghệ này có thể tự động hóa "lạm dụng hoặc giả mạo nội dung trên mạng xã hội", "tạo các bài báo gây hiểu lầm" hoặc "mạo danh người khác". Có thể nói, so với GPT-3 dựa trên lượng tham số, phiên bản lớn nhất của GPT-2 chưa được một phần mười.

Dù OpenAI phát hành GPT-2 và hạn chế quyền truy cập vào GPT-3, nhằm "cho mọi người thời gian" để tìm hiểu về "ý nghĩa xã hội" của công nghệ đó. Thế nhưng, những thông tin sai lệch vẫn tràn lan trên phương tiện truyền thông xã hội, ngay cả khi GPT-3 không được sử dụng rộng rãi.

Chuyện người đàn ông dùng công nghệ AI để “hồi sinh” vợ chưa cưới đã mất và lời cảnh báo về góc khuất sau “thế thân ảo” của các chuyên gia tạo ra nó - Ảnh 3.

Một nghiên cứu mới đây cho thấy thuật toán của YouTube vẫn chứa thông tin sai lệch và Trung tâm phi lợi nhuận chống lại sự căm ghét kỹ thuật số gần đây đã xác định được 12 người chịu trách nhiệm phát tán 65% thuyết âm mưu về COVID-19 trên mạng xã hội. Những người này được mệnh danh là "Kẻ phá hoại thông tin" và có hàng triệu người theo dõi.

Oren Etzioni, Giám đốc điều hành của nhóm nghiên cứu sinh học phi lợi nhuận Viện Allen, trước đây đã chia sẻ với Insider rằng khi AI tiếp tục phát triển, nó sẽ chỉ trở nên khó khăn hơn để phân biệt đâu là thật, đâu là giả. "Câu hỏi " liệu những văn bản, hình ảnh, video hoặc email này có xác thực không?" sẽ ngày càng khó trả lời nếu chỉ dựa vào nội dung, "ông nói.

(Theo BI)

Lê Anh

Theo Trí thức trẻ

CÙNG CHUYÊN MỤC

XEM
Trở lên trên