Cơ hội cho hạ tầng và dịch vụ tuân thủ AI

Nghiên cứu - Trao đổi - Ngày đăng : 10:20, 23/03/2026

Dự thảo Nghị định hướng dẫn thi hành Luật Trí tuệ nhân tạo (AI) quy định về phân loại rủi ro, sandbox và hạ tầng dữ liệu đang được kỳ vọng tạo hành lang pháp lý cho phát triển công nghệ, đồng thời đặt ra các chuẩn mực mới về quản trị và tuân thủ đối với các hệ thống AI trong thời gian tới.
Việt Nam trên hành trình xác lập vị thế mớiAI - ưu tiên hàng đầu trong kế hoạch phân bổ ngân sách cho an ninh mạng của doanh nghiệp
Hoạt động ứng dụng công nghệ AI trong vài năm gần đây phát triển rất mạnh trong nhiều lĩnh vực của nền kinh tế
Hoạt động ứng dụng công nghệ AI trong vài năm gần đây phát triển rất mạnh trong nhiều lĩnh vực của nền kinh tế

Định hình chặt chẽ khung quản trị rủi ro

Theo Ban soạn thảo, điểm cốt lõi của dự thảo Nghị định hướng dẫn thi hành Luật AI là cách tiếp cận quản lý dựa trên mức độ rủi ro của hệ thống. Theo đó, các hệ thống AI sẽ được phân loại và áp dụng nghĩa vụ quản lý tương ứng. Những hệ thống có tác động lớn tới quyền lợi của cá nhân hoặc hoạt động kinh tế - xã hội sẽ được xếp vào danh mục các hệ thống AI rủi ro cao do Thủ tướng Chính phủ ban hành.

Trong quá trình góp ý, nhiều địa phương đề nghị làm rõ các tiêu chí phân loại để tránh cách hiểu khác nhau trong thực thi. Chẳng hạn, Sở Khoa học và Công nghệ tỉnh Đồng Nai cho rằng các khái niệm như “ảnh hưởng đáng kể” hoặc “triển khai trên diện rộng” nếu chỉ dừng ở mức định tính có thể gây khó khăn cho doanh nghiệp khi xác định nghĩa vụ tuân thủ.

Ở góc độ an ninh dữ liệu, một số địa phương cũng đề nghị các hệ thống AI xử lý “dữ liệu cốt lõi” hoặc “dữ liệu quan trọng” theo Luật Dữ liệu cần được đưa vào nhóm rủi ro cao hoặc nhóm kiểm soát đặc biệt nhằm bảo đảm yêu cầu an ninh quốc gia. Bên cạnh đó, nhiều ý kiến cũng đề nghị làm rõ lộ trình phát triển hạ tầng AI quốc gia, tránh tình trạng doanh nghiệp phải thực hiện các nghĩa vụ tuân thủ ở mức cao khi hạ tầng kỹ thuật và dữ liệu dùng chung chưa sẵn sàng.

Cùng với cơ chế phân loại rủi ro, dự thảo Nghị định cũng đưa ra một hệ thống công cụ quản trị nhằm theo dõi toàn bộ vòng đời của các hệ thống AI. Trong đó, Cổng thông tin điện tử một cửa về AI được xây dựng để làm đầu mối tiếp nhận khai báo của doanh nghiệp về kết quả phân loại rủi ro, hồ sơ kỹ thuật và các thay đổi trong quá trình vận hành hệ thống. Các thông tin này được kết nối với cơ sở dữ liệu quản lý để cơ quan chức năng theo dõi các hệ thống AI đang triển khai trên thị trường, đặc biệt là các hệ thống thuộc nhóm rủi ro cao.

Bên cạnh đó, dự thảo Nghị định giao Bộ Khoa học và Công nghệ xây dựng công cụ hỗ trợ phân loại rủi ro trên cổng thông tin điện tử, giúp doanh nghiệp tự đánh giá mức độ rủi ro của hệ thống theo các tiêu chí được quy định.

Theo các chuyên gia trong lĩnh vực này, cách thiết kế này cho thấy cơ chế quản lý đang được xây dựng theo chu trình khai báo, lưu trữ dữ liệu, giám sát, hậu kiểm, thay vì chỉ kiểm soát ở khâu cấp phép ban đầu. Điều này tạo cơ sở dữ liệu và công cụ kỹ thuật để cơ quan quản lý theo dõi rủi ro của các hệ thống AI trong thực tế. Một điểm đáng chú ý khác là cơ chế sandbox cho AI, cho phép thử nghiệm các hệ thống AI mới trong môi trường pháp lý được giám sát. Cơ chế này cũng gắn với định hướng trong kế hoạch triển khai Nghị quyết 57-NQ/TW về phát triển khoa học - công nghệ và đổi mới sáng tạo.

Ông Ngô Minh Quân, Giám đốc Chuyển đổi số Rikkeisoft cho rằng, cách tiếp cận này cho thấy cơ quan quản lý đang tìm cách cân bằng giữa hai mục tiêu: thúc đẩy đổi mới sáng tạo và kiểm soát các rủi ro xã hội của công nghệ AI. “Việc xây dựng các tiêu chí rõ ràng và có thể dự đoán được sẽ giúp doanh nghiệp chủ động hơn trong triển khai công nghệ”, ông Quân nhận định.

Một không gian thị trường mới

Không chỉ tạo ra khuôn khổ quản lý mới, các chuyên gia trong lĩnh vực kinh tế số cho rằng quy định trong dự thảo Nghị định cũng mở ra một không gian thị trường mới xoay quanh hạ tầng và dịch vụ tuân thủ AI.

Ông Ngô Minh Quân cho rằng khi các hệ thống AI phải đáp ứng yêu cầu minh bạch và truy vết dữ liệu, doanh nghiệp sẽ buộc phải đầu tư mạnh vào quản trị dữ liệu nhằm kiểm soát nguồn dữ liệu, chất lượng và phiên bản dữ liệu huấn luyện, đồng thời phòng ngừa các rủi ro như sai lệch hoặc đầu độc dữ liệu. “Dữ liệu là nền tảng của AI. Khi quy định yêu cầu minh bạch và truy vết dữ liệu, doanh nghiệp buộc phải đầu tư vào các hệ thống quản trị dữ liệu bài bản hơn”, ông Quân cho biết.

Đại diện Tập đoàn Viettel cũng lưu ý, khi AI được triển khai trong các lĩnh vực quan trọng như tài chính, y tế hay quản lý công, việc thiết lập các hệ thống giám sát mô hình (MLOps) để theo dõi hiệu suất, phát hiện sai lệch và ghi nhật ký vận hành sẽ trở thành yêu cầu bắt buộc. Theo các chuyên gia, tư duy này phù hợp với nguyên tắc “giám sát và can thiệp của con người” (human-in-the-loop) đối với các hệ thống AI rủi ro cao được nhấn mạnh trong Luật AI.

Theo FPT Software, việc xây dựng các bộ công cụ tuân thủ như ma trận phân loại rủi ro, bộ câu hỏi tự đánh giá và các mẫu hồ sơ kỹ thuật chuẩn sẽ giúp doanh nghiệp giảm chi phí tuân thủ và triển khai AI minh bạch hơn. Ngoài ra, thị trường cũng có thể hình thành các dịch vụ kiểm định và đánh giá AI (AI assurance) - tương tự hoạt động kiểm toán trong lĩnh vực tài chính.

Đối với lĩnh vực tài chính - ngân hàng, nhiều chuyên gia cho rằng AI nhiều khả năng sẽ được quản trị theo cách tương tự các mô hình rủi ro tài chính hiện nay. Khi AI được sử dụng trong chấm điểm tín dụng, phát hiện gian lận hoặc định giá bảo hiểm, các tổ chức tài chính sẽ phải coi AI như một phần của hệ thống quản trị rủi ro vận hành. Điều này đồng nghĩa các ngân hàng và tổ chức tài chính sẽ phải thiết lập đầu mối quản trị AI, xây dựng quy trình kiểm soát có sự can thiệp của con người, chính sách quản trị dữ liệu và các kịch bản xử lý sự cố đối với các hệ thống AI.

Trong bối cảnh khung pháp lý cho AI đang dần hoàn thiện, nhiều chuyên gia nhận định những doanh nghiệp sớm đầu tư vào hạ tầng dữ liệu, hệ thống giám sát mô hình và năng lực tuân thủ sẽ có lợi thế rõ rệt trong chu kỳ phát triển tiếp theo của thị trường AI tại Việt Nam.

Thạch Bình