Chính phủ Ấn Độ đang thay đổi cách tiếp cận để quản lý trí tuệ nhân tạo, sau khi ban đầu yêu cầu các nhà phát triển gửi các mô hình có rủi ro để chính phủ phê duyệt.
Các nhà phát triển mô hình AI sáng tạo (GenAI) hiện có thể tự do phát hành mà không cần sự chấp thuận của chính phủ, nhưng đang được khuyến khích tự điều chỉnh bằng cách thêm nhãn cảnh báo về khả năng không đáng tin cậy của chúng.
Ngược lại với quan điểm trước đó, Bộ Điện tử và Công nghệ thông tin (MeitY) đã đưa ra khuyến nghị mới vào ngày 15 tháng 3, từ bỏ yêu cầu bắt buộc chính phủ phải phê duyệt đối với các mô hình AI đang được phát triển.
Bản khuyến nghị cập nhật về quản trị AI nhấn mạnh tầm quan trọng của các biện pháp tự điều chỉnh và chủ động của ngành để giải quyết các thách thức mới nổi. Thay vì chính phủ đóng vai trò là cơ quan giám sát, khuyến nghị nhằm mục đích đạt được sự cân bằng giữa thúc đẩy đổi mới và giảm thiểu rủi ro tiềm ẩn liên quan đến công nghệ AI.
Bản khuyến nghị yêu cầu dán nhãn nội dung do AI tạo ra dễ bị lạm dụng, chẳng hạn như trong việc tạo tài liệu lừa đảo như deepfake (kỹ thuật tổng hợp hình ảnh, âm thanh hoặc video để tạo ra những nội dung giả mạo). Những mô hình nền tảng AI chưa được thử nghiệm/không đáng tin cậy/ LLM/Generative Al, phần mềm hoặc thuật toán hoặc việc phát triển thêm các mô hình như vậy chỉ nên được cung cấp cho người dùng ở Ấn Độ sau khi dán nhãn thích hợp về khả năng có thể sai sót hoặc không đáng tin cậy vốn có của đầu ra được tạo ra.
Ngoài ra, còn đề xuất sử dụng “cửa sổ bật lên lấy sự đồng ý” hoặc cơ chế tương đương để thông báo rõ cho người dùng về khả năng có thể mắc sai sót hoặc không đáng tin cậy.
Sự thay đổi đáng hoan nghênh
Phó Giám đốc nghiên cứu của IDC Sharath Srinivasamurthy hoan nghênh sự thay đổi hướng đi.
Bản khuyến nghị này là một bước đi đúng hướng vì đã có phản ứng dữ dội đối với tư vấn trước đó. AI, đặc biệt là genAI, là một công nghệ mới nổi và các quy định sẽ phát triển khi trải qua quá trình sử dụng. Cần có các quy định, đặc biệt là khi xem xét tác động của công nghệ này đối với con người. Câu hỏi duy nhất là cần có bao nhiêu quy định.
Khuyến nghị mới giúp các nhà phát triển có nhiều tự do hơn để đổi mới, đồng thời đặt ra các biện pháp bảo vệ cho việc sử dụng.
Khi công nghệ phát triển, sẽ có những trường hợp sử dụng mới và mặt khác là những mối quan tâm mới. Chính phủ cần phải nhanh chóng trong việc hoạch định chính sách và đó là những gì đang xảy ra. Các nhà phát triển kỳ vọng chính phủ sẽ tiếp tục nỗ lực tìm kiếm sự cân bằng phù hợp giữa rủi ro và đổi mới.
Hy vọng động thái này sẽ thúc đẩy việc áp dụng các dịch vụ AI như một tính năng cơ bản trong hệ thống và ứng dụng, giúp phổ biến việc sử dụng chúng một cách hiệu quả về mặt chi phí vì các doanh nghiệp sẽ có nhiều mô hình AI hơn để lựa chọn.
Khi hệ sinh thái ở Ấn Độ đang ở giai đoạn sơ khai, chính phủ đang thúc đẩy bằng cách thay đổi các quy định để thúc đẩy việc áp dụng AI và thúc đẩy các nền tảng AI bản địa.
Dán nhãn deepfake
Khuyến nghị của chính phủ gợi ý rằng nếu bất kỳ bên trung gian nào cho phép hoặc tạo điều kiện cho việc tạo hoặc sửa đổi thông tin văn bản, âm thanh, hình ảnh hoặc nghe nhìn thông qua phần mềm của họ hoặc bất kỳ tài nguyên máy tính nào khác theo cách có thể được sử dụng làm thông tin giả hoặc thông tin sai lệch, thì thông tin đó phải được dán nhãn hoặc nhúng với siêu dữ liệu hoặc nhận dạng duy nhất vĩnh viễn.
Nhãn hoặc mã nhận dạng này phải có khả năng xác định tài nguyên máy tính của bên trung gian đã được sử dụng để tạo, tạo hoặc sửa đổi thông tin đó. Ngoài ra, nếu bất kỳ người dùng nào thực hiện thay đổi thông tin thì siêu dữ liệu phải được định cấu hình để xác định người dùng hoặc tài nguyên máy tính đã thực hiện những thay đổi đó.
MeitY nhắc nhở các nhà phát triển rằng các luật hiện hành khác vẫn được áp dụng: “Người ta nhắc lại rằng việc không tuân thủ các quy định của Đạo luật CNTT 2000 và/hoặc Quy tắc CNTT có thể dẫn đến hậu quả bao gồm nhưng không giới hạn ở việc truy tố theo Đạo luật CNTT 2000 và các luật hình sự khác. , dành cho các bên trung gian, nền tảng và người dùng”.