MỚI NHẤT!

Đọc nhanh >>

Kỳ lạ mô hình AI mới của Trung Quốc, được ca ngợi là siêu thông minh nhưng liên tục khẳng định mình là ChatGPT

31-12-2024 - 14:15 PM | Kinh tế số

Dù được ca ngợi là có khả năng xử lý văn bản cũng như thực hiện nhiều tác vụ ngang hàng với các mô hình AI hàng đầu thế giới, mô hình AI mới của Trung Quốc liên tục tự nhận mình là ChatGPT.

Đầu tuần vừa qua, DeepSeek, một startup AI mới nổi ở Trung Quốc, mới đây đã công bố mô hình AI "mở" mang tên DeepSeek V3. Được xây dựng trên một tập dữ liệu khổng lồ với hơn 600 tỷ tham số, nhưng mô hình này nổi bật vì sử dụng hiệu quả phần cứng, đồng thời vẫn thể hiện khả năng xử lý các tác vụ dựa trên văn bản như lập trình và viết luận văn một cách dễ dàng. Tuy nhiên, điều đáng ngạc nhiên là DeepSeek V3 dường như tin rằng mình chính là ChatGPT, nền tảng chatbot được cung cấp bởi OpenAI.

Hàng loạt bài đăng trên mạng xã hội X và kết quả thử nghiệm của TechCrunch đã cho thấy DeepSeek V3 tự xưng mình là ChatGPT. Khi được yêu cầu giải thích, mô hình này khẳng định đây là một phiên bản của GPT-4, mô hình do OpenAI phát hành vào năm 2023. Sự nhầm lẫn này còn đi xa hơn khi DeepSeek V3 đưa ra hướng dẫn sử dụng API của OpenAI khi được hỏi về API của chính DeepSeek. Thậm chí, mô hình này còn kể một số câu chuyện cười giống hệt GPT-4, từ nội dung cho đến cả câu chốt hài.

Kỳ lạ mô hình AI mới của Trung Quốc, được ca ngợi là siêu thông minh nhưng liên tục khẳng định mình là ChatGPT- Ảnh 1.

5 trong số 8 lần tạo ra câu trả lời, DeepSeek V3 đều nhận mình là ChatGPT, chỉ có 3 lần mô hình này nhận mình là DeepSeek V3.

Vậy điều gì đang xảy ra ở đây?

Về cơ bản, các mô hình như ChatGPT và DeepSeek V3 là những hệ thống thống kê, được huấn luyện trên hàng tỷ ví dụ để học các mẫu và đưa ra dự đoán. DeepSeek chưa tiết lộ nhiều về nguồn dữ liệu huấn luyện của DeepSeek V3, nhưng có rất nhiều bộ dữ liệu công khai chứa văn bản được tạo ra bởi GPT-4 thông qua ChatGPT. Nếu DeepSeek V3 được huấn luyện trên những dữ liệu này, mô hình có thể đã ghi nhớ một số kết quả của GPT-4 và đang nhắc lại chúng một cách nguyên văn.

Mike Cook, nghiên cứu viên tại Đại học King's College London, chuyên về AI, cho biết: "Rõ ràng là mô hình này đang thấy các phản hồi thô từ ChatGPT tại một thời điểm nào đó, nhưng không rõ điều đó xảy ra ở đâu. Nó có thể là 'vô tình', nhưng đáng tiếc là chúng ta đã chứng kiến các trường hợp mọi người trực tiếp huấn luyện mô hình của họ trên kết quả của các mô hình khác để cố gắng ăn theo kiến thức của họ."

Ông Cook cũng lưu ý rằng việc huấn luyện mô hình bằng kết quả từ các hệ thống AI đối thủ có thể "rất tệ" cho chất lượng mô hình, vì nó có thể dẫn đến các ảo giác và câu trả lời sai lệch. "Giống như chụp bản sao của một bản sao, chúng ta sẽ mất đi ngày càng nhiều thông tin và kết nối với thực tế," ông nói. Nói cách khác nó chính là ví dụ điển hình của câu "Tam sao thất bản".

Kỳ lạ mô hình AI mới của Trung Quốc, được ca ngợi là siêu thông minh nhưng liên tục khẳng định mình là ChatGPT- Ảnh 2.

CEO OpenAI, ông Sam Altman đã ngụ ý nói về điều này trong dòng tweet của mình không lâu sau khi DeepSeek V3 được công bố vào ngày 26-12 vừa qua. Điều này cũng có thể vi phạm điều khoản dịch vụ của hệ thống OpenAI. Các điều khoản của OpenAI cấm người dùng sản phẩm của họ, bao gồm cả khách hàng ChatGPT, sử dụng kết quả để phát triển các mô hình cạnh tranh với chính OpenAI.

Tuy nhiên, DeepSeek V3 không phải là mô hình đầu tiên xác định sai danh tính của mình. Gemini của Google và các mô hình khác đôi khi cũng tự nhận mình là các mô hình cạnh tranh. Điều này một phần là do web, nơi các công ty AI lấy phần lớn dữ liệu huấn luyện, đang trở nên tràn ngập nội dung do AI tạo ra. Các trang trại nội dung đang sử dụng AI để tạo ra tin tức giật gân. Các bot đang tràn ngập Reddit và X. Theo một ước tính, 90% web có thể được tạo ra bởi AI vào năm 2026.

Sự "ô nhiễm" này đã khiến việc lọc triệt để các kết quả của AI khỏi tập dữ liệu huấn luyện trở nên khó khăn. Heidy Khlaaf, trưởng khoa học gia AI tại viện phi lợi nhuận AI Now Institute, cho rằng việc tiết kiệm chi phí từ việc "chưng cất" kiến thức của một mô hình hiện có có thể hấp dẫn các nhà phát triển, bất kể rủi ro.

Kỳ lạ mô hình AI mới của Trung Quốc, được ca ngợi là siêu thông minh nhưng liên tục khẳng định mình là ChatGPT- Ảnh 3.

Tuy nhiên, điều đáng lo ngại hơn là khả năng DeepSeek V3, bằng cách hấp thụ và lặp lại một cách không phê phán các kết quả của GPT-4, có thể làm trầm trọng thêm một số thành kiến và khuyết điểm của mô hình này. Nếu DeepSeek V3 không thể tự xác định chính xác bản thân mình, thì làm sao người dùng có thể tin tưởng vào các câu trả lời khác của nó?

Sự xuất hiện của DeepSeek V3 đã đặt ra nhiều câu hỏi về đạo đức và trách nhiệm trong việc phát triển AI. Liệu việc sử dụng dữ liệu từ các mô hình đối thủ có phải là một chiêu trò đạo văn tinh vi, hay chỉ đơn giản là sự vô tình trong một thế giới web ngày càng bị chi phối bởi nội dung do AI tạo ra? Dù động cơ là gì, rõ ràng chúng ta cần phải cảnh giác hơn trong việc đánh giá và sử dụng các hệ thống AI, đặc biệt là khi ranh giới giữa thực và ảo ngày càng trở nên mờ nhạt.

 

Theo Nguyễn Hải

Đời sống và Pháp luật

Trở lên trên