Chính phủ các nước tìm cách kiềm chế những mối nguy hiểm của AI
Nghiên cứu - Trao đổi - Ngày đăng : 11:49, 06/06/2023
Kể từ khi trí tuệ nhân tạo AI bùng nổ với sự ra mắt của ChatGPT vào cuối năm ngoái, những lời kêu gọi điều chỉnh công nghệ này để ngăn chặn tác hại không đáng có đã trở thành cơn sốt trên khắp thế giới. Nhận thấy sự rủi ro cao, mới đây các nhà lãnh đạo công nghệ mới ký một bức thư công khai nói rằng nếu các quan chức chính phủ hiểu sai, hậu quả có thể là sự tuyệt chủng của loài người.
Trong khi hầu hết người dùng chỉ vui vẻ thử nghiệm giới hạn của các mô hình ngôn ngữ lớn như ChatGPT, một số câu chuyện đáng lo ngại lan truyền về công nghệ này đã đưa ra đề xuất không phù hợp cho người dùng.
Những người trong ngành công nghệ và các chuyên gia pháp lý cũng lưu ý đến một loạt các mối quan tâm khác, bao gồm việc AI có thể tăng cường các cuộc tấn công vào hệ thống phòng thủ an ninh mạng, khả năng vi phạm bản quyền và quyền riêng tư dữ liệu, vì các mô hình ngôn ngữ lớn được đào tạo trên tất cả các loại thông tin, và khả năng phân biệt đối xử khi con người đưa những thành kiến của chính họ thành các thuật toán cho AI.
Có thể vấn đề đáng quan tâm nhất là các chương trình AI về cơ bản là tự học, thể hiện khả năng ngày càng tăng khi chúng nhập dữ liệu và người tạo ra chúng không biết chính xác điều gì đang xảy ra bên trong chúng. Điều này có thể có nghĩa là, như một cựu lãnh đạo đã nói rằng loài người có thể chỉ là một giai đoạn đi qua trong quá trình phát triển trí thông minh và các hệ thống AI có thể phát triển các mục tiêu của riêng chúng mà con người không biết gì.
Tất cả điều này đã khiến nhiều chính phủ trên thế giới kêu gọi đưa ra các quy định bảo vệ. Tuy nhiên, giống như hầu hết các quy định về công nghệ, hiếm khi có một cách tiếp cận chung cho tất cả. Các chính phủ khác nhau đang tìm cách điều chỉnh AI theo cách phù hợp nhất với bối cảnh chính trị của chính họ.
Các quốc gia đưa ra quy định riêng của mình
Các vấn đề công nghệ, mặc dù mỗi quốc gia được tự do đưa ra các quy tắc của riêng mình, nhưng trong quá khứ, những gì chúng ta thấy là đã có một số hình thức hài hòa giữa Mỹ, EU và hầu hết các nước phương Tây.
Mặc dù chi tiết của luật do mỗi khu vực tài phán đưa ra có thể khác nhau, nhưng có một chủ đề bao trùm thống nhất mà tất cả các chính phủ đã đề xuất cho đến nay: làm thế nào để nhận ra lợi ích của AI trong khi giảm thiểu rủi ro mà nó gây ra cho xã hội. Thật vậy, các nhà lập pháp của EU và Hoa Kỳ đang soạn thảo một bộ quy tắc ứng xử về AI để thu hẹp khoảng cách cho đến khi bất kỳ luật nào được thông qua một cách hợp pháp.
AI sáng tạo là một thuật ngữ chung cho bất kỳ quy trình tự động nào sử dụng thuật toán để tạo, thao tác hoặc tổng hợp dữ liệu, thường ở dạng hình ảnh hoặc văn bản mà con người có thể đọc được. Nó được gọi là sáng tạo vì nó tạo ra thứ gì đó chưa từng tồn tại trước đây. Nó không phải là một công nghệ mới và các cuộc trò chuyện xung quanh quy định cũng không phải là mới.
AI sáng tạo được cho là đã xuất hiện (ít nhất là ở dạng chatbot rất cơ bản) từ giữa những năm 1960, khi một giáo sư MIT tạo ra ELIZA, một ứng dụng được lập trình để sử dụng phương pháp khớp mẫu và thay thế ngôn ngữ để đưa ra các phản hồi được tạo ra để khiến người dùng cảm thấy thích. Nhưng sự xuất hiện gần đây của AI sáng tạo đã cho phép những người có thể chưa từng tiếp cận với công nghệ này trước đây có thể tạo ra nội dung phức tạp về bất kỳ chủ đề nào, dựa trên một số gợi ý cơ bản.
Khi các ứng dụng AI sáng tạo trở nên mạnh mẽ và phổ biến hơn, áp lực đối với quy định ngày càng tăng.
Những bước đầu tiên hướng tới luật AI
Mặc dù các cuộc thảo luận của Ủy ban Châu Âu xung quanh đạo luật quản lý AI đã bắt đầu vào năm 2019, nhưng chính phủ Vương quốc Anh là một trong những bên đầu tiên công bố ý định của mình, xuất bản sách trắng vào tháng 3 năm nay nêu ra 5 nguyên tắc mà họ muốn các công ty tuân theo: an toàn, bảo mật, và sự mạnh mẽ; tính minh bạch và khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; và khả năng cạnh tranh và khắc phục.
Tuy nhiên, trong nỗ lực tránh “nặng tay”, chính phủ Vương quốc Anh đã kêu gọi các cơ quan quản lý sử dụng các quy định hiện hành để đảm bảo rằng các ứng dụng AI tuân thủ các nguyên tắc, thay vì soạn thảo luật mới.
Kể từ đó, Ủy ban Châu Âu đã xuất bản dự thảo đầu tiên về Đạo luật AI của mình. Dự thảo này đã bị trì hoãn do nhu cầu bổ sung các điều khoản để điều chỉnh các ứng dụng AI mới hơn. Dự thảo luật bao gồm yêu cầu đối với các mô hình AI sáng tạo để giảm thiểu một cách hợp lý các rủi ro có thể thấy trước đối với sức khỏe, sự an toàn, quyền cơ bản, môi trường, nền dân chủ và pháp quyền, với sự tham gia của các chuyên gia độc lập.
Luật do EU đề xuất sẽ cấm sử dụng AI khi nó có thể trở thành mối đe dọa đối với sự an toàn, sinh kế hoặc quyền của con người. Với các quy định xung quanh việc sử dụng trí tuệ nhân tạo sẽ trở nên ít hạn chế hơn dựa trên rủi ro nhận thức mà nó có thể gây ra cho ai đó liên hệ với nó, ví dụ: tương tác với chatbot trong dịch vụ khách hàng sẽ được coi là rủi ro thấp. Các hệ thống AI có rủi ro hạn chế và tối thiểu như vậy có thể được sử dụng với ít yêu cầu. Các hệ thống trí tuệ nhân tạo gây ra mức độ sai lệch hoặc rủi ro cao hơn, chẳng hạn như hệ thống được sử dụng cho hệ thống chấm điểm xã hội và nhận dạng sinh trắc học của chính phủ, thường sẽ không được phép, trừ một số trường hợp ngoại lệ.
Tuy nhiên, ngay cả trước khi luật được hoàn thiện, ChatGPT nói riêng đã bị một số quốc gia châu Âu xem xét kỹ lưỡng vì có thể vi phạm bảo vệ dữ liệu. Cơ quan quản lý dữ liệu của Ý ban đầu đã cấm ChatGPT do cáo buộc vi phạm quyền riêng tư liên quan đến việc thu thập và lưu trữ dữ liệu cá nhân của chatbot, nhưng đã khôi phục việc sử dụng công nghệ này sau khi OpenAI do Microsoft hậu thuẫn, đã làm rõ chính sách quyền riêng tư của mình và khiến nó dễ truy cập hơn, và đã cung cấp một công cụ mới để xác minh tuổi của người dùng.
Các quốc gia châu Âu khác, bao gồm Pháp và Tây Ban Nha, đã nộp đơn khiếu nại về ChatGPT tương tự như Ý, mặc dù không có quyết định nào liên quan đến những khiếu nại đó được đưa ra.
Các cách tiếp cận khác nhau đối với quy định
Tất cả các quy định phản ánh chính trị, đạo đức và văn hóa của xã hội… ở Mỹ chẳng hạn, có một sự miễn cưỡng để điều chỉnh trừ khi có áp lực rất lớn, trong khi ở châu Âu có một nền văn hóa quy định mạnh mẽ hơn nhiều vì lợi ích chung.
Không có gì sai khi có một cách tiếp cận khác. Đúng vậy, nới lỏng các quy định là không muốn kìm hãm sự đổi mới, trong khi khắt khe trong luật sẽ dẫn tới giảm khả năng cạnh tranh.
Mặc dù các cách tiếp cận lập pháp khác nhau có thể mang lại lợi ích riêng, nhưng một số chuyên gia lưu ý rằng các quy định về AI do chính phủ Trung Quốc thực hiện sẽ hoàn toàn không thể chấp nhận được ở Bắc Mỹ hoặc Tây Âu.
Theo luật Trung Quốc, các công ty AI sẽ được yêu cầu gửi bản đánh giá bảo mật cho chính phủ trước khi tung ra sản phẩm của họ và mọi nội dung do AI tạo ra phải phù hợp với các giá trị xã hội cốt lõi của đất nước. Việc không tuân thủ các quy tắc sẽ dẫn đến việc các nhà cung cấp bị phạt tiền, bị đình chỉ dịch vụ hoặc đối mặt với điều tra hình sự.
Những thách thức đối với pháp luật AI
Mặc dù một số quốc gia đã bắt đầu soạn thảo các quy định về AI, nhưng những nỗ lực đó bị cản trở bởi thực tế là các nhà lập pháp liên tục phải bắt kịp công nghệ mới, cố gắng hiểu những rủi ro và lợi ích của chúng.
Nếu nhìn lại hầu hết các tiến bộ công nghệ, chẳng hạn như internet hay trí tuệ nhân tạo, thì nó giống như con dao hai lưỡi, vì người ta có thể sử dụng nó cho cả mục đích hợp pháp và bất hợp pháp.
Các hệ thống AI cũng có thể vô tình gây hại, vì người lập trình chúng có thể bị sai lệch và dữ liệu mà các chương trình được đào tạo có thể chứa thông tin sai lệch hoặc không chính xác. Do vậy rất cần trí tuệ nhân tạo đã được đào tạo với dữ liệu khách quan, nếu không, các quyết định do AI đưa ra sẽ không chính xác cũng như mang tính phân biệt đối xử.
Các công ty công nghệ cần làm cho hệ thống trí tuệ nhân tạo có thể kiểm tra được để chúng có thể chịu sự kiểm tra độc lập và bên ngoài từ các cơ quan quản lý, và người dùng phải có quyền truy cập hợp pháp để thách thức tác động của quyết định do trí tuệ nhân tạo đưa ra, với sự giám sát cuối cùng luôn được đưa ra với con người, mà không phải máy.
Bản quyền là vấn đề lớn đối với các ứng dụng AI
Một vấn đề pháp lý quan trọng khác cần được giải quyết là bản quyền. Đạo luật AI của EU bao gồm một điều khoản cho phép những người tạo ra các công cụ AI sáng tạo tiết lộ bất kỳ tài liệu có bản quyền nào được sử dụng để phát triển hệ thống của họ.
Khi vấn đề này lần đầu tiên nảy sinh, các nhà lập pháp ở các quốc gia bao gồm Nhật Bản, Đài Loan và Singapore đã tạo ra một ngoại lệ đối với tài liệu có bản quyền được đưa vào trường đào tạo, tuyên bố rằng bản quyền không được cản trở tiến bộ công nghệ.
Tuy nhiên, nhiều trường hợp ngoại lệ bản quyền này đã gần bảy năm tuổi. Vấn đề còn phức tạp hơn bởi thực tế là ở EU, trong khi vẫn tồn tại những ngoại lệ tương tự này, bất kỳ ai là chủ sở hữu quyền đều có thể từ chối sử dụng dữ liệu của họ trong các tập huấn luyện.
Ở Vương quốc Anh, một ngoại lệ hiện đang tồn tại cho mục đích nghiên cứu, nhưng kế hoạch đưa ra một ngoại lệ bao gồm các công nghệ AI thương mại đã bị loại bỏ, trong khi chính phủ vẫn chưa công bố kế hoạch thay thế.
Điều gì tiếp theo cho quy định AI?
Cho đến nay, Trung Quốc là quốc gia duy nhất đã thông qua luật và tiến hành truy tố liên quan đến AI tổng hợp. Vào tháng 5 vừa qua, chính quyền Trung Quốc đã bắt giữ một người đàn ông ở miền Bắc Trung Quốc vì cáo buộc sử dụng ChatGPT để viết các bài báo giả mạo.
Ở những nơi khác, chính phủ Vương quốc Anh đã nói rằng các cơ quan quản lý sẽ ban hành hướng dẫn thực tế cho các tổ chức, đưa ra cách thực hiện các nguyên tắc được nêu trong sách trắng của mình trong 12 tháng tới, trong khi Ủy ban EU dự kiến sẽ sớm bỏ phiếu để hoàn thiện văn bản về Đạo luật AI của họ.
Để so sánh, Mỹ dường như vẫn đang trong giai đoạn tìm hiểu thực tế, mặc dù Tổng thống Joe Biden và Phó Tổng thống Kamala Harris gần đây đã gặp gỡ các giám đốc điều hành từ các công ty AI hàng đầu để thảo luận về những nguy cơ tiềm ẩn của AI. Cũng trong tháng trước, hai ủy ban của Thượng viện cũng đã gặp gỡ các chuyên gia trong ngành, bao gồm cả Giám đốc điều hành của OpenAI - nhà cung cấp ChatGPT.
Bất kể luật cuối cùng sẽ như thế nào, các cơ quan quản lý và chính phủ trên toàn thế giới cần phải hành động ngay. Nếu không, chúng ta sẽ rơi vào tình huống mà công nghệ đã bị khai thác cực đoan đến mức con người phải sa vào một trận chiến mà không bao giờ có thể thắng được.