Australia áp đặt quản lý công nghệ AI để giảm thiểu rủi ro an ninh
Trong bối cảnh vấn đề rủi ro do công nghệ AI ngày càng được quan tâm, Chính phủ Australia đã thông báo kế hoạch triển khai các quy định nghiêm ngặt nhằm quản lý công nghệ AI, giảm thiểu các tác hại tiềm ẩn của công nghệ này đối với cuộc sống và con người.
- 26-01-2024TikTok đang thử nghiệm các video dài 30 phút?
- 26-01-2024Cảnh báo lừa đảo giả giọng người dân qua điện thoại
- 26-01-2024Instagram và Messenger chặn người dưới 18 tuổi nhận tin nhắn từ người lạ
Hệ thống các nguyên tắc quản lý công nghệ AI do Chính phủ Australia soạn thảo, để bảo vệ người dân và doanh nghiệp Australia khỏi những tác hại tiềm ẩn tồi tệ nhất của AI. Theo Bộ trưởng Công nghiệp Australia Ed Husic, Chính phủ Australia cam kết thực hiện cách tiếp cận “dựa trên rủi ro” để có thể đáp ứng với các thách thức do công nghệ AI đặt ra.
Theo đó tất cả các cá nhân, tổ chức nào sử dụng và phát triển AI, hay các công nghệ dựa trên nền tảng AI đều buộc phải tuân theo các bộ quy tắc bắt này, bao gồm cả các biện pháp đánh giá và kiểm toán độc lập có thể có.
Bộ Công nghiệp Australia khẳng định, Chính phủ không cản trở sự phát triển của các công nghệ AI, thậm chí khuyến khích phát triển những công nghệ có tính rủi ro thấp. Tuy nhiên, việc quản lý nghiêm ngặt các công nghệ tiềm ẩn nguy cơ rủi ro cao là cần thiết nhằm bảo đảm an toàn cho chính người dân và đất nước Australia.
Theo các cuộc điều tra và thăm dò dư luận của Bộ Công nghiệp, AI có tiềm năng bổ sung hàng trăm tỷ AUD cho nền kinh tế Australia, giúp cải thiện gói lương và phúc lợi của người lao động. Nhưng niềm tin của công chúng vào các công nghệ AI hiện nay còn thấp, và chính phủ nhận được mối quan ngại rộng rãi về rủi ro đối với việc làm, phân biệt đối xử, và các tệ nạn xã hội khác.
Một nghiên cứu của Quỹ Tiền tệ quốc tế mới công bố cho thấy, AI có thể tác động đến khoảng 60% tổng số việc làm ở các nền kinh tế tiên tiến, với khoảng một nửa trong số đó có thể được hưởng lợi từ việc AI giúp tăng năng suất, trong khi nửa còn lại sẽ bị tác động tiêu cực do mất việc làm.
Theo đề xuất của chính phủ, các "biện pháp bảo vệ" bắt buộc sẽ được áp dụng cho AI có rủi ro cao, như phần mềm xe tự lái, quản lý và điều tiết giao thông, các công cụ dự đoán, sàng lọc, nhận diện tội phạm, chống hàng giả, gian lận... Các công nghệ AI có rủi ro cao buộc phải trải qua các quy trình thử nghiệm độc lập trước và sau khi phát hành, kiểm tra liên tục và dán nhãn bắt buộc ở những nơi công nghệ này được sử dụng.
VOV