Sắp có luật về AI: 9 hành vi sẽ bị cấm tuyệt đối

Bộ Khoa học và Công nghệ đang lấy ý kiến dự thảo Luật Trí tuệ nhân tạo (AI) - khung pháp lý đầu tiên cho hoạt động AI tại Việt Nam, trong đó nêu 9 hành vi bị cấm và các nguyên tắc bảo đảm phát triển an toàn, nhân văn...

Sắp có luật về AI: 9 hành vi sẽ bị cấm tuyệt đối - Ảnh 1.

Dự thảo Luật gồm 9 chương, 70 điều, quy định về phân loại và quản lý hệ thống AI theo rủi ro; phát triển hạ tầng và bảo đảm chủ quyền AI quốc gia; chuyển đổi và ứng dụng AI phục vụ phát triển kinh tế - xã hội; đạo đức, độ tin cậy và trách nhiệm trong hoạt động AI; thanh tra, xử lý vi phạm và giải quyết tranh chấp; trách nhiệm dân sự và bồi thường thiệt hại...

Bảy nguyên tắc cơ bản

Một trong những điểm cốt lõi của Dự thảo là yêu cầu mọi hoạt động liên quan đến AI tại Việt Nam phải tuân thủ 7 nguyên tắc cơ bản sau:

Lấy con người làm trung tâm (nhân văn): AI phải phục vụ và hỗ trợ con người, không thay thế con người trong các quyết định trọng yếu và phải luôn nằm dưới sự kiểm soát, giám sát và chịu trách nhiệm cuối cùng của con người.

Bảo đảm an toàn, công bằng, minh bạch và trách nhiệm: Hệ thống AI phải được phát triển và vận hành một cách an toàn, tin cậy, bảo mật và bảo đảm công bằng, không phân biệt đối xử; có khả năng giải trình và phải xác định rõ trách nhiệm pháp lý đối với các thiệt hại gây ra.

Bảo đảm tự chủ quốc gia và hội nhập quốc tế: Phát triển năng lực tự chủ về công nghệ, hạ tầng, dữ liệu và các mô hình AI; chủ động hợp tác, hội nhập quốc tế trên cơ sở hài hòa với các nguyên tắc và thông lệ quốc tế.

Phát triển bao trùm và bền vững: Gắn phát triển AI với mục tiêu phát triển kinh tế - xã hội bền vững, bảo đảm công bằng và cơ hội thụ hưởng cho mọi người dân, không ai bị bỏ lại phía sau, bảo vệ môi trường và giữ gìn bản sắc văn hóa dân tộc.

Bảo đảm sự cân bằng và hài hòa trong xây dựng và thực thi chính sách: Nhà nước có trách nhiệm hài hòa các quy định pháp luật về hệ thống AI với các chuẩn mực quốc tế, đồng thời bảo đảm phù hợp với các giá trị, bản sắc văn hóa và yêu cầu phát triển của Việt Nam...

Quản lý dựa trên rủi ro: Nhà nước áp dụng biện pháp quản lý tương xứng với cấp độ rủi ro của hệ thống AI, chỉ quy định quản lý bắt buộc đối với hệ thống AI có nguy cơ gây hại rõ ràng…

Thúc đẩy đổi mới sáng tạo: Nhà nước kiến tạo môi trường pháp lý và chính sách thuận lợi, an toàn để thúc đẩy nghiên cứu, khởi nghiệp và thương mại hóa các sản phẩm, dịch vụ liên quan đến hệ thống AI.

Phân loại, giám sát hệ thống AI theo mức độ rủi ro

Dự thảo Luật AI cũng phân loại hệ thống AI thành 4 cấp độ rủi ro để áp dụng các biện pháp quản lý tương ứng:

Rủi ro không chấp nhận được: là các hệ thống AI có mục đích sử dụng gây tổn hại đến an ninh quốc gia, các giá trị xã hội và quyền con người, bị cấm theo quy định tại Điều 11 của Luật này.

Rủi ro cao: là các hệ thống AI được sử dụng trong các lĩnh vực hoặc cho các mục đích có khả năng gây tổn hại đáng kể đến tính mạng, sức khỏe, các quyền cơ bản của con người, an ninh, trật tự và các lợi ích công cộng quan trọng khác.

Rủi ro trung bình: là các hệ thống AI có tương tác trực tiếp với con người hoặc tạo ra nội dung mà người sử dụng cần được biết về bản chất nhân tạo của nó.

Rủi ro thấp: là các hệ thống AI không thuộc các trường hợp quy định trên.

Các trường hợp hệ thống AI bị cấm

Đáng chú ý, Dự thảo Luật AI cũng đưa ra quy định nghiêm cấm việc nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống AI trong 9 trường hợp:

Một là, thao túng nhận thức, hành vi của con người một cách có chủ đích nhằm làm mất khả năng tự chủ, ra quyết định, dẫn đến hoặc có khả năng dẫn đến tổn hại về thể chất hoặc tinh thần.

Hai là, lợi dụng các điểm yếu của một nhóm người cụ thể liên quan đến tuổi tác, khuyết tật hoặc hoàn cảnh kinh tế - xã hội để tác động đến hành vi của họ.

Ba là, chấm điểm tín nhiệm xã hội đối với cá nhân trên phạm vi rộng bởi cơ quan nhà nước, dẫn đến sự đối xử bất lợi hoặc không công bằng trong các bối cảnh xã hội không liên quan.

Bốn là, sử dụng hệ thống nhận dạng sinh trắc học từ xa theo thời gian thực tại các địa điểm công cộng cho mục đích thực thi pháp luật, trừ các trường hợp đặc biệt do luật chuyên ngành quy định nhằm phòng, chống tội phạm nghiêm trọng và phải được cơ quan nhà nước có thẩm quyền cho phép theo một trình tự đặc biệt.

Năm là, xây dựng hoặc khai thác cơ sở dữ liệu nhận dạng khuôn mặt quy mô lớn thông qua việc thu thập hình ảnh một cách tràn lan, không có chủ đích từ Internet hoặc camera giám sát.

Sáu là, sử dụng hệ thống nhận diện cảm xúc tại nơi làm việc và các cơ sở giáo dục, trừ trường hợp luật chuyên ngành cho phép vì lý do y tế hoặc an toàn với các điều kiện nghiêm ngặt.

Bảy là, sản xuất hoặc phổ biến nội dung giả mạo và các nội dung khác do AI tạo ra có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội, an ninh quốc gia.

Tám là, phát triển hoặc sử dụng hệ thống AI nhằm chống phá Nhà nước.

Chín là, các trường hợp khác do Chính phủ quy định sau khi có ý kiến của các cơ quan liên quan và thực hiện tham vấn công khai.

Minh Quân


Đàm Thị Thuý Vân

Link nội dung: https://antt.nguoiduatin.vn/sap-co-luat-ve-ai-9-hanh-vi-se-bi-cam-tuyet-doi-205251110174125297.htm