MỚI NHẤT!

Đọc nhanh >>

Lo sợ robot sát nhân, Elon Musk kêu gọi lệnh cấm toàn cầu

22-08-2017 - 15:32 PM | Tài chính quốc tế

Ông chủ Tesla là một trong 116 chuyên gia hàng đầu thế giới về trí tuệ nhân tạo (AI) kêu gọi Liên Hợp Quốc ban hành lệnh cấm toàn cầu với các loại vũ khí tự hành có khả năng giết người.

Hội thảo giữa nhưng tên tuổi hàng đầu thế giới về AI năm nay nóng với chủ đề robot giết người, đề cập tới các loại vũ khí tự hành có khả năng sát nhân. Với sự phát triển của công nghệ, vũ khí tự hành dường như sẽ trở thành “cuộc cách mạng thứ 3" trong chiến tranh. Nếu được phát triển và phổ dụng, chúng sẽ khiến cho xung đột vũ trang trở nên khốc liệt với quy mô lớn chưa từng có.

“Đây có thể là những vũ khí khủng bố hay được khủng bố sử dụng nhằm vào thường dân vô tội. Thậm chí, chúng có thể gây ra những vụ tấn công ngoài sự kiểm soát của con người”, bức thư ngỏ của các chuyên gia AI hàng đầu gửi tới Liên Hợp Quốc, được công bố trong cuộc họp báo về AI ở Melbourne trước cuộc họp của UN về vũ khí tự hành, cảnh báo.

Trái với phần còn lại của thế giới AI, vốn vẫn nằm trong sự tưởng tượng của con người, vũ khí tự hành đang được các nước đầu tư mạnh mẽ và được đưa vào sử dụng, chẳng hạn như máy bay không người lái hay các loại phương tiện chiến đấu trên bộ và trên biển. Theo Tổ chức Theo dõi Nhân quyền (HWR), hơn chục quốc gia, bao gồm Mỹ, Trung Quốc, Isreal, Hàn Quốc, Nga và Anh, đang phát hiện các hệ thống vũ khí tự hành. Chúng thực sự có tiềm năng gây thiệt hại đáng kể cho người vô tội và thổi bùng bất ổn toàn cầu.

Đây không phải lần đầu Elon Musk và các chuyên gia hàng đầu về AI cảnh báo mối nguy hiểm từ vũ khí tự hành. Nhiều năm trước, nhà sáng lập Tesla đã mô tả hiểm họa từ trí tuệ nhân tạo có thể “nguy hiểm hơn cả vũ khí hạt nhân”.

Tuy nhiên, bản thân Musk không đứng ngoài xu thế trí tuệ nhân tạo. Gần nhất, Musk công bố kế hoạch xây dựng thiết bị có thể kết nối não người với máy tính để phát triển trí tuệ nhân tạo theo hướng tích cực cho tương lai nhân loại.

Linh Anh

CNN Money

CÙNG CHUYÊN MỤC

XEM
Trở lên trên