Việt Nam Đẩy Mạnh Xây Dựng Khung Pháp Lý Toàn Diện Cho AI: Dự Thảo Luật Trí tuệ Nhân tạo và 9 Trường Hợp Bị Cấm Nghiêm Ngặt

Khung Pháp Lý Cho Trí Tuệ Nhân Tạo
Việt Nam đang nỗ lực trở thành một trong những quốc gia tiên phong xây dựng khung pháp lý toàn diện về Trí tuệ nhân tạo (AI). Dự thảo Luật Trí tuệ nhân tạo do Bộ Khoa học và Công nghệ (KH&CN) xây dựng và lấy ý kiến rộng rãi đang tạo ra một hành lang pháp lý quan trọng để điều chỉnh hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống AI tại Việt Nam.
Mục tiêu của Dự thảo Luật là nhằm thiết lập một môi trường pháp lý cân bằng, vừa thúc đẩy đổi mới sáng tạo, phát triển công nghệ AI, vừa đảm bảo an toàn, đạo đức và bảo vệ quyền lợi hợp pháp của cá nhân, tổ chức. Dự kiến, Luật Trí tuệ nhân tạo có thể được trình Quốc hội vào cuối năm 2025 (theo thông tin từ các báo cáo về Chiến lược AI quốc gia và lộ trình lập pháp).
Cấu Trúc Cơ Bản của Dự Thảo
Dự thảo Luật Trí tuệ nhân tạo bao gồm 9 chương với 70 điều (thông tin cụ thể từ Dự thảo do Bộ KH&CN công bố), tập trung vào các nội dung chính:
- Phân loại và quản lý hệ thống AI theo rủi ro.
- Phát triển hạ tầng và đảm bảo chủ quyền AI quốc gia.
- Đạo đức, độ tin cậy và trách nhiệm trong hoạt động AI.
- Các biện pháp thúc đẩy ứng dụng, phát triển nhân lực, đổi mới sáng tạo và hợp tác quốc tế.
7 Nguyên Tắc Cốt Lõi Chi Phối Hoạt Động AI
Mọi hoạt động liên quan đến hệ thống trí tuệ nhân tạo tại Việt Nam phải tuân thủ nghiêm ngặt các nguyên tắc cơ bản, lấy con người làm trung tâm và quản lý dựa trên rủi ro là kim chỉ nam:
- Lấy con người làm trung tâm (Nhân văn): AI phải phục vụ và hỗ trợ con người, tôn trọng nhân phẩm, quyền tự do, quyền riêng tư và các giá trị văn hóa. AI không được thay thế con người trong các quyết định trọng yếu và phải luôn nằm dưới sự kiểm soát, giám sát và chịu trách nhiệm cuối cùng của con người.
- Bảo đảm An toàn, Công bằng, Minh bạch và Trách nhiệm: Hệ thống AI phải được phát triển và vận hành một cách an toàn, tin cậy, bảo mật, và đảm bảo công bằng, không phân biệt đối xử. Đặc biệt, đối với các hệ thống rủi ro, cần đảm bảo tính minh bạch, có khả năng giải trình và xác định rõ trách nhiệm pháp lý đối với các thiệt hại gây ra.
- Bảo đảm Tự chủ Quốc gia và Hội nhập Quốc tế: Phát triển năng lực tự chủ về công nghệ, hạ tầng, dữ liệu và các mô hình AI, đồng thời chủ động hợp tác, hội nhập quốc tế trên cơ sở hài hòa với các nguyên tắc và thông lệ quốc tế.
- Phát triển Bao trùm và Bền vững: Gắn phát triển AI với mục tiêu phát triển kinh tế – xã hội bền vững, bảo đảm công bằng, cơ hội thụ hưởng cho mọi người dân, bảo vệ môi trường và giữ gìn bản sắc văn hoá dân tộc.
- Bảo đảm sự Cân bằng và Hài hòa trong xây dựng và thực thi chính sách.
- Quản lý dựa trên Rủi ro: Áp dụng biện pháp quản lý tương xứng với cấp độ rủi ro, chỉ quy định quản lý bắt buộc đối với hệ thống AI có nguy cơ gây hại rõ ràng.
- Thúc đẩy Đổi mới Sáng tạo: Nhà nước kiến tạo môi trường pháp lý và chính sách thuận lợi, an toàn để thúc đẩy nghiên cứu, khởi nghiệp và thương mại hóa các sản phẩm, dịch vụ AI.
Phân Loại Rủi Ro Hệ Thống AI
Để áp dụng các biện pháp quản lý phù hợp, Dự thảo Luật đã phân loại và giám sát hệ thống trí tuệ nhân tạo theo 4 cấp độ rủi ro:
- Rủi ro Không chấp nhận được (Bị cấm tuyệt đối): Các hệ thống gây hại cho quyền con người, an ninh quốc gia. Quy định này nằm tại Điều 11 của Dự thảo.
- Rủi ro Cao: Các hệ thống có thể ảnh hưởng đáng kể đến tính mạng, sức khỏe, an ninh, quyền cơ bản của con người. Các hệ thống này phải tuân thủ nghĩa vụ nghiêm ngặt về đăng ký, chứng nhận hợp quy, đánh giá tác động, minh bạch và giám sát.
- Rủi ro Trung bình: Các hệ thống có tương tác trực tiếp với con người hoặc tạo nội dung mà người dùng cần biết rõ về bản chất nhân tạo (ví dụ: các hệ thống chatbot, AI tạo sinh).
- Rủi ro Thấp: Các hệ thống còn lại. Các hệ thống này được khuyến khích tự nguyện áp dụng tiêu chuẩn kỹ thuật và chỉ bị hậu kiểm khi có rủi ro phát sinh.
Chính phủ sẽ quy định chi tiết Bộ tiêu chí, các dấu hiệu nhận biết và ban hành danh mục ví dụ minh họa cho từng cấp độ rủi ro để đảm bảo tính rõ ràng và khả thi.
9 Trường Hợp Hệ Thống AI Bị Cấm Nghiêm Ngặt
Đáng chú ý nhất, Dự thảo Luật Trí tuệ nhân tạo quy định nghiêm cấm việc nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo trong 9 trường hợp cụ thể (thuộc nhóm rủi ro không chấp nhận được):
- Thao túng nhận thức, hành vi: Cố ý thao túng nhận thức, hành vi của con người nhằm làm mất khả năng tự chủ, ra quyết định, dẫn đến hoặc có khả năng dẫn đến tổn hại về thể chất hoặc tinh thần.
- Lợi dụng điểm yếu của nhóm người dễ bị tổn thương: Lợi dụng các điểm yếu của một nhóm người cụ thể (liên quan đến tuổi tác, khuyết tật hoặc hoàn cảnh kinh tế, xã hội) để tác động đến hành vi của họ, gây bất lợi.
- Chấm điểm tín nhiệm xã hội đối với cá nhân trên phạm vi rộng bởi cơ quan nhà nước, dẫn đến sự đối xử bất lợi hoặc không công bằng trong các bối cảnh xã hội không liên quan.
- Sử dụng hệ thống nhận dạng sinh trắc học từ xa theo thời gian thực tại các địa điểm công cộng cho mục đích thực thi pháp luật, trừ các trường hợp đặc biệt do luật chuyên ngành quy định (nhằm phòng, chống tội phạm nghiêm trọng và phải được cơ quan nhà nước có thẩm quyền cho phép theo một trình tự đặc biệt).
- Xây dựng hoặc khai thác cơ sở dữ liệu nhận dạng khuôn mặt quy mô lớn thông qua việc thu thập hình ảnh một cách tràn lan, không có chủ đích từ Internet hoặc camera giám sát.
- Sử dụng hệ thống nhận diện cảm xúc tại nơi làm việc và các cơ sở giáo dục, trừ trường hợp luật chuyên ngành cho phép vì lý do y tế hoặc an toàn với các điều kiện nghiêm ngặt.
- Sản xuất hoặc phổ biến nội dung giả mạo (deepfake) và các nội dung khác do AI tạo ra có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội, an ninh quốc gia.
- Phát triển hoặc sử dụng hệ thống trí tuệ nhân tạo nhằm chống phá Nhà nước Cộng hòa xã hội chủ nghĩa Việt Nam.
- Các trường hợp khác do Chính phủ quy định sau khi có ý kiến của các cơ quan liên quan và thực hiện tham vấn công khai.
Việc ban hành Dự thảo Luật AI cho thấy sự quyết tâm của Việt Nam trong việc xây dựng hạ tầng trí tuệ quốc gia, quản lý chặt chẽ những rủi ro tiềm tàng của công nghệ AI, đồng thời tạo môi trường pháp lý thuận lợi để phát triển kinh tế số và xã hội số một cách an toàn, bền vững.