Mỹ và Anh thỏa thuận kiểm tra độ an toàn của các mô hình trí tuệ nhân tạo

LTV| 03/04/2024 06:25

Thỏa thuận sẽ chứng kiến Viện An toàn AI mới của Vương quốc Anh và đối tác Mỹ hợp tác để xây dựng một khuôn khổ nhằm kiểm tra tính an toàn của các mô hình trí tuệ nhân tạo.

Mỹ và Vương quốc Anh đã ký một thỏa thuận để kiểm tra tính an toàn của các mô hình ngôn ngữ lớn (LLM) làm nền tảng cho các hệ thống AI.

Thỏa thuận hoặc biên bản ghi nhớ (MoU) - được ký tại Washington bởi Bộ trưởng Thương mại Mỹ Gina Raimondo và Bộ trưởng Công nghệ Vương quốc Anh Michelle Donelan vào thứ Hai vừa qua - sẽ chứng kiến cả hai nước làm việc để điều chỉnh các phương pháp khoa học và hợp tác chặt chẽ nhằm phát triển công cụ đánh giá cho các mô hình AI, hệ thống và các thành phần.

Công việc phát triển khuôn khổ để kiểm tra tính an toàn của LLM, chẳng hạn như khuôn khổ do OpenAI và Google phát triển, sẽ được Viện An toàn AI mới của Vương quốc Anh (AISI) và đối tác Mỹ thực hiện ngay.

Thỏa thuận này có hiệu lực chỉ vài tháng sau khi chính phủ Anh tổ chức Hội nghị thượng đỉnh về an toàn AI toàn cầu vào tháng 9 năm ngoái - 2023, nơi một số quốc gia khác bao gồm Trung Quốc, Mỹ, EU, Ấn Độ, Đức và Pháp đồng ý hợp tác về an toàn AI.

Các quốc gia đã ký thỏa thuận, được gọi là Tuyên bố Bletchley, để hình thành một đường lối suy nghĩ chung nhằm giám sát sự phát triển của AI và đảm bảo rằng công nghệ này phát triển một cách an toàn.

Thỏa thuận được đưa ra sau khi hàng trăm nhà lãnh đạo ngành công nghệ, học giả và các nhân vật công chúng khác ký một bức thư ngỏ cảnh báo rằng sự tiến hóa của AI có thể dẫn đến sự kiện tuyệt chủng vào tháng 5 năm ngoái.

OpenAI, Meta, Nvidia hợp tác với Viện An toàn AI

Mỹ cũng đã thực hiện các bước để quản lý các hệ thống AI và LLM liên quan. Vào tháng 11 năm ngoái, chính quyền Biden đã ban hành một lệnh hành pháp được chờ đợi từ lâu nhằm đưa ra các quy tắc rõ ràng và các biện pháp giám sát để đảm bảo AI được kiểm soát đồng thời cung cấp lộ trình cho phát triển.

Đầu năm nay, chính phủ Mỹ đã thành lập một nhóm cố vấn an toàn AI, bao gồm các nhà sáng tạo, người dùng và học giả AI, với mục tiêu đưa ra một số rào cản đối với việc sử dụng và phát triển AI.

Nhóm cố vấn có tên là Hiệp hội Viện An toàn AI Mỹ (AISIC), một phần của Viện Tiêu chuẩn và Công nghệ Quốc gia, được giao nhiệm vụ soạn ra hướng dẫn cho các hệ thống AI nhóm đỏ, đánh giá năng lực AI, quản lý rủi ro, đảm bảo an toàn và bảo mật và gán tem nội dung do AI tạo ra.

Một số công ty công nghệ lớn, bao gồm OpenAI, Meta, Google, Microsoft, Amazon, Intel và Nvidia, đã tham gia liên minh để đảm bảo sự phát triển an toàn của AI.

Tương tự, ở Anh, các công ty như OpenAI, Meta và Microsoft đã ký thỏa thuận tự nguyện để mở ra các mô hình AI thế hệ mới nhất của họ để AISI của quốc gia này xem xét, cơ quan được thành lập tại Hội nghị Thượng đỉnh An toàn AI của Vương quốc Anh.

EU cũng đã có những bước tiến trong việc quản lý các hệ thống AI. Tháng trước, Nghị viện châu Âu đã ký luật toàn diện đầu tiên trên thế giới để quản lý AI. Theo văn bản cuối cùng, quy định này nhằm mục đích thúc đẩy “sự phát triển của AI đáng tin cậy và lấy con người làm trung tâm, đồng thời đảm bảo mức độ bảo vệ cao cho sức khỏe, an toàn, các quyền cơ bản và bảo vệ môi trường trước tác động tiêu cực của hệ thống trí tuệ nhân tạo”.

Bài liên quan

(0) Bình luận
Nổi bật Tin tức IDS
Đừng bỏ lỡ
Mỹ và Anh thỏa thuận kiểm tra độ an toàn của các mô hình trí tuệ nhân tạo
POWERED BY ONECMS - A PRODUCT OF NEKO