Nguyên tắc xây dựng Luật AI: Khuyến khích sáng tạo đi kèm quản lý rủi ro – Tạp chí Doanh nghiệp Việt Nam

DNVN – Việt Nam hiện đang nghiên cứu xây dựng Luật AI. Đây là bước đi quan trọng trong bối cảnh công nghệ trí tuệ nhân tạo (AI) đang được xem là một đột phá, nhưng cũng tiềm ẩn nhiều rủi ro.

Thái Lan bất ngờ ‘đi ngược dòng’ để trở thành trung tâm AI: Vũ khí bí mật nằm ở đâu? /
Mở khóa AI trong hoạt động ngân hàng

Ông Hồ Đức Thắng, Viện Trưởng Viện Công Nghệ Số Và Chuyển Đổi Số Quốc Gia (Bộ Khoa Học Và Công Nghệ)

Ông Hồ Đức Thắng, Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia (Bộ Khoa học và Công nghệ)

Các chuyên gia và cơ quan quản lý nhà nước khẳng định rằng,
AI là một công cụ rất tốt nhưng lại mang tính hai mặt. Rủi ro mà AI gây ra
không chỉ dừng lại ở an ninh mạng, mà còn bao gồm các vấn đề phức tạp liên quan
tới đạo đức, thiên kiến và bất bình đẳng.

Theo ông Hồ Đức Thắng – Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia, Việt Nam đang
chuẩn bị xây dựng Luật AI. Mục tiêu chung của việc xây dựng luật là nhằm quản
lý những rủi ro do AI đưa ra và đồng thời thúc đẩy sự phát triển của AI.

Về cách tiếp cận đối với Luật AI, ông Hồ Đức Thắng khẳng định: “Luật AI được kỳ vọng sẽ đóng vai trò như một bộ
công cụ mạnh mẽ kèm bản hướng dẫn sử dụng rõ ràng và an toàn”.

 

Để bảo đảm việc phòng chống rủi ro, bao gồm cả an ninh mạng, Luật AI sẽ hướng tới việc thiết lập một chiến lược quản lý rủi ro theo ba lớp “phòng thủ”.

Lớp thứ nhất – Bộ lọc rủi ro và phân loại mức độ:Nguyên tắc cơ bản là phân loại mức độ rủi ro của hệ thống
AI. Hệ thống AI rủi ro thấp sẽ
được tạo điều kiện tối đa cho sáng tạ o.Hệ thống AI
rủi ro cao như AI trong hệ thống phục vụ công, AI trong lĩnh vực y tế và giáo dục cần quản lý chặt chẽ vì
chúng có thể ảnh hưởng nghiêm trọng đến sức khỏe, tài chính và quyền lợi con
người.

Lớp thứ hai – An toàn từ trong khâu thiết kế: Đây là yêu cầu bắt buộc đối với các hệ thống AI rủi ro cao,
nhằm bảo đảm an toàn ngay từ khâu thiết kế. Hệ thống AI rủi ro cao phải trải
qua quy trình đánh giá dữ liệu, thuật toán và các biện pháp bảo vệ trước khi được
đưa ra thị trường. Yêu cầu về dữ liệu là phải “sạch”, đồng thời phải
đảm bảo các vấn đề đạo đức, không được có thiên kiến và không được ảnh
hưởng tới quyền lợi của con người.

 

Lớp thứ ba – Giám sát liên tục và chế tài nghiêm khắc:Lớp “phòng thủ” cuối cùng nhằm bảo đảm hệ thống AI không vận
hành như một “hộp đen” là phải giám sát liên tục, kèm giải trình và có
tiêu chuẩn kỹ thuật cho các hệ thống AI. Ví dụ, đối với video giả mạo (video fake) do AI tạo ra, có thể yêu cầu nhà cung cấp phải đánh nhãn để người dùng nhận
biết. Luật pháp cần có mức phạt đủ sức răn đe khi vi phạm. Các nước trên thế giới,
ví dụ như châu Âu, áp dụng mức phạt rất nặng, thậm chí lên tới 35 triệu Euro hoặc
7% doanh thu toàn cầu đối với những hành vi vi phạm, nhằm buộc người sử dụng hoặc
tội phạm phải suy nghĩ kỹ trước khi phát tán nội dung xấu bằng AI.

Theo Thứ trưởng Bộ Khoa học và Công nghệ Bùi Hoàng Phương, hiện chưa có
nhiều quốc gia ban hành Luật về AI. Trong quá trình xây dựng luật AI, do vấn đề
dữ liệu và an toàn an ninh mạng thuộc phạm vi quản lý Nhà nước của Bộ Công an,
Bộ Khoa học và Công nghệ sẽ trao đổi và phối hợp chặt chẽ với Bộ Công an để triển khai nội
dung này.

Hiền Thảo






 


Để lại một bình luận