MỚI NHẤT!

Đọc nhanh >>

Việt Nam là nước ĐNA đầu tiên làm được điều thế giới mới có EU và Hàn Quốc áp dụng, quốc tế nhận định: Việt Nam có thể sẽ thành 'hình mẫu' cho khu vực

09-03-2026 - 13:46 PM | Kinh tế số

Theo SCMP, Luật trí tuệ nhân tạo (AI) vừa có hiệu lực tại Việt Nam có thể trở thành phép thử đầu tiên ở Đông Nam Á đối với việc chuyển từ các hướng dẫn tự nguyện sang khung quản lý mang tính ràng buộc. Nhiều chuyên gia cho rằng bước đi này có thể tác động đáng kể tới cách doanh nghiệp phát triển và ứng dụng AI trên toàn khu vực.

Luật AI của Việt Nam trở thành “phép thử” đầu tiên của Đông Nam Á về quản lý trí tuệ nhân tạo

Vào ngày 1/3, Luật Trí tuệ nhân tạo chính thức có hiệu lực. Trong bối cảnh trí tuệ nhân tạo phát triển với tốc độ đột biến, lan rộng từ kinh tế, tài chính đến giáo dục, truyền thông và quốc phòng an ninh, việc ban hành một đạo luật chuyên biệt được xem là bước đi kịp thời và cần thiết, đánh dấu bước chuyển quan trọng trong tư duy quản lý công nghệ của Việt Nam.

Luật ra đời để vừa mở đường cho đổi mới sáng tạo, vừa bảo vệ con người, bảo vệ quốc gia và khẳng định AI chỉ là công cụ hỗ trợ, không thay thế vai trò quyết định của con người.

Không giống cách tiếp cận quản lý truyền thống dựa nhiều vào tiền kiểm, Luật Trí tuệ nhân tạo lựa chọn nguyên tắc quản lý theo mức độ rủi ro. Hệ thống AI được phân thành 3 mức: Thấp, trung bình và cao. Những hệ thống rủi ro cao phải đáp ứng yêu cầu nghiêm ngặt về minh bạch, an toàn và trách nhiệm giải trình; trong khi các ứng dụng rủi ro thấp được tạo điều kiện phát triển linh hoạt hơn.

Theo luật, doanh nghiệp không phải xin phép trước khi triển khai hệ thống AI, nhưng phải tự đánh giá mức độ an toàn, lưu giữ hồ sơ và chịu trách nhiệm khi cơ quan quản lý thực hiện hậu kiểm. Cách tiếp cận này nhằm giảm thủ tục hành chính, khuyến khích sáng tạo, đồng thời vẫn giữ được cơ chế giám sát hiệu quả của Nhà nước.

Điểm nhấn đáng chú ý là luật xác định rõ các hành vi bị cấm tuyệt đối, như: Sử dụng AI để thao túng hành vi, nhận thức của con người; tạo nội dung giả mạo nhằm lừa đảo hoặc xâm phạm danh dự, nhân phẩm; lợi dụng trẻ em, người khuyết tật, người cao tuổi và các nhóm yếu thế; hoặc sử dụng AI gây phương hại đến quốc phòng, an ninh và trật tự xã hội.

Tờ SCMP nhận định, việc ban hành luật đã đưa Việt Nam gia nhập số ít các quốc gia, trong đó có EU và Hàn Quốc, xây dựng khung pháp lý chuyên biệt cho trí tuệ nhân tạo , trong bối cảnh nhiều nước khác vẫn đang dừng ở các hướng dẫn hoặc quy định thử nghiệm.

Các quốc gia khác trong Đông Nam Á có động thái ra sao trong việc ban hành quy định về trí tuệ nhân tạo?

Trong khi Việt Nam đã ban hành luật, nhiều quốc gia Đông Nam Á vẫn đang ở các giai đoạn khác nhau trong việc xây dựng khung pháp lý về AI.

Tại Malaysia , Thủ tướng Anwar Ibrahim cho biết dự thảo luật quản trị AI vẫn đang ở giai đoạn soạn thảo ban đầu và sẽ được tiếp tục xem xét bởi các ủy ban chuyên môn. Dự luật này dự kiến sẽ xử lý các vấn đề về bản quyền và sở hữu trí tuệ , đồng thời xây dựng khuôn khổ pháp lý bao trùm toàn bộ vòng đời của hệ thống AI.

Trong khi đó, Indonesia hiện đang triển khai hai văn bản chính sách quan trọng gồm Chiến lược AI quốc gia giai đoạn 2020–2045 khung đạo đức về trí tuệ nhân tạo , nhưng chưa ban hành luật chuyên biệt.

Chuyên gia quốc tế đánh giá ra sao?

Theo hãng luật LNT & Partners , luật mới của Việt Nam được xem là điểm khởi đầu mang tính quyết định , bởi tác động thực sự của nó sẽ phụ thuộc vào các nghị định hướng dẫn, quy định ngành và cách thực thi trong thực tế .

SCMP cho biết, nhiều nhà phân tích cho rằng luật AI của Việt Nam có thể trở thành ví dụ thực tiễn đầu tiên trong khu vực đối với các nguyên tắc quản trị AI mà ASEAN đã đề xuất trước đó, bao gồm Lộ trình AI có trách nhiệm của ASEAN Hướng dẫn về quản trị và đạo đức AI .

Cụ thể, theo bà Saijai Liangpunsakul , cựu giám đốc tác động xã hội tại Phandeeyar – Myanmar Innovation Lab, Luật trí tuệ nhân tạo của Việt Nam cho thấy khu vực Đông Nam Á đang bắt đầu chuyển từ các nguyên tắc tự nguyện sang cơ chế thực thi cụ thể , trong bối cảnh các rủi ro từ AI ngày càng rõ rệt.

“Các video deepfake và các hình thức lừa đảo trực tuyến đang ảnh hưởng tới người dân trên khắp khu vực. Các chính phủ bắt đầu nhận ra rằng chỉ riêng các hướng dẫn đạo đức là chưa đủ”, bà nói.

Theo bà Liangpunsakul, việc ban hành luật tạo ra nghĩa vụ rõ ràng đối với các công ty AI , đồng thời cung cấp công cụ để chính phủ có thể can thiệp khi xảy ra thiệt hại.

Còn theo ông Paco Pangalangan , chuyên gia về công nghệ và nhân quyền tại Trường Harvard Kennedy , luật của Việt Nam có thể trở thành “ví dụ thực tiễn đầu tiên” cho việc triển khai các nguyên tắc quản trị AI tại ASEAN.

“Nếu mô hình phân cấp rủi ro của Việt Nam hoạt động hiệu quả, các quốc gia khác trong khu vực sẽ có một ví dụ cụ thể để nghiên cứu và điều chỉnh”, ông nhận định.

Tuy nhiên, ông cũng lưu ý rằng ảnh hưởng của Việt Nam đối với quản trị AI trong khu vực không chỉ nằm ở văn bản luật , mà ở việc liệu mô hình đó có hoạt động hiệu quả khi áp dụng vào thực tế hay không .

Dù vậy, một số chuyên gia cho rằng Đông Nam Á khó có thể nhanh chóng thống nhất một mô hình pháp lý chung về AI. Cụ thể, bà Faiza Saleem , chuyên gia chính sách công nghệ và AI tại khu vực Đông Nam Á, cho biết, các quốc gia ASEAN hiện đang áp dụng những cách tiếp cận rất khác nhau .

“Luật AI của Việt Nam rất quan trọng, nhưng chưa chắc sẽ trở thành khuôn mẫu cho toàn khu vực”, bà nói.

Ví dụ, Singapore hiện ưu tiên cách tiếp cận linh hoạt hơn, bao gồm các hướng dẫn, sandbox thử nghiệm và quy định theo từng ngành , thay vì ban hành một đạo luật AI tổng thể.

Theo bà Saleem, việc các quốc gia có theo mô hình của Việt Nam hay không sẽ phụ thuộc vào mức độ phát triển công nghệ, văn hóa pháp lý và ý chí chính trị của từng nước .

Thách thức lớn nhất vẫn nằm ở khâu thực thi

Theo các chuyên gia, thách thức lớn nhất của khung quản lý AI sẽ nằm ở khâu thực thi. Một số yếu tố quan trọng, như tiêu chí phân loại rủi ro hay các yêu cầu kỹ thuật, vẫn phụ thuộc vào các quy định hướng dẫn chi tiết, điều có thể tạo ra sự không chắc chắn trong ngắn hạn đối với doanh nghiệp.

Bên cạnh đó, việc yêu cầu các công ty tự phân loại mức độ rủi ro của hệ thống AI cũng có thể phát sinh xung đột lợi ích.

“Nếu một hệ thống bị xếp vào nhóm rủi ro cao, doanh nghiệp sẽ phải chịu chi phí tuân thủ lớn hơn. Vì vậy luôn tồn tại động lực thương mại để phân loại ở mức thấp hơn”, bà Saijai Liangpunsakul cảnh báo.

Theo các chuyên gia, để hạn chế rủi ro này cần có cơ chế kiểm toán độc lập và sự giám sát chủ động từ phía cơ quan quản lý.

Ông Paco Pangalangan, chuyên gia công nghệ và nhân quyền tại Trường Harvard Kennedy, cho rằng sự giám sát của con người sẽ là yếu tố then chốt để đảm bảo luật được thực thi hiệu quả.

“Nếu không có cơ chế thực sự để xem xét hoặc kháng nghị các quyết định tự động, thì khái niệm ‘giám sát của con người’ rất dễ trở thành hình thức. Việc có sự tham gia của xã hội dân sự, truyền thông và các tổ chức độc lập sẽ giúp đảm bảo các cơ chế kiểm soát này hoạt động hiệu quả”, ông nói.

Tham khảo: SCMP

Hoàng Nguyễn

Nhịp sống thị trường

CÙNG CHUYÊN MỤC

XEM
Trở lên trên