Các mô hình ngôn ngữ lớn: 6 cạm bẫy cần tránh

LTV| 07/05/2023 07:51

Từ những lo ngại về bảo mật và quyền riêng tư đến thông tin sai lệch và thiên vị, các mô hình ngôn ngữ lớn - trí tuệ nhân tạo thế hệ mới - mang lại rủi ro cùng với lợi ích.

Gần đây đã có những tiến bộ đáng kinh ngạc về trí tuệ nhân tạo (AI), chủ yếu nhờ vào những đột phá trong việc phát triển các mô hình ngôn ngữ lớn (LLM - large language model). Đây là phần cốt lõi của các công cụ tạo văn bản như ChatGPT, Bard và GitHub's Copilot.

Những mô hình này đang được áp dụng trên tất cả các lĩnh vực. Nhưng vẫn còn những lo ngại nghiêm trọng về cách chúng được tạo ra và sử dụng, và cách chúng có thể bị lạm dụng. Một số quốc gia đã quyết định thực hiện một cách tiếp cận triệt để và tạm thời cấm các LLM cụ thể cho đến khi có các quy định phù hợp.

Hãy xem xét một số tác động bất lợi trong thế giới thực của các công cụ dựa trên LLM và cách thức giảm thiểu chúng.

1. Nội dung độc hại

LLM có thể cải thiện năng suất theo nhiều cách. Khả năng diễn giải các yêu cầu và giải quyết các vấn đề khá phức tạp của người dùng có thể giảm tải các nhiệm vụ nhàm chán, tốn thời gian… và chỉ cần kiểm tra kết quả một cách tỉnh táo.

Nhưng tất nhiên, sức mạnh lớn đi kèm với trách nhiệm lớn. Mặc dù LLM có thể tạo tài liệu hữu ích và tăng tốc độ phát triển phần mềm, nhưng chúng cũng có thể cho phép truy cập nhanh vào thông tin có hại, tăng tốc quy trình làm việc của kẻ xấu và thậm chí tạo nội dung độc hại như email lừa đảo và phần mềm độc hại.

Mặc dù có nhiều cách để hạn chế quyền truy cập vào nội dung không mong muốn, nhưng không phải lúc nào cũng khả thi hoặc hiệu quả. Đối với các dịch vụ được lưu trữ như chatbot, việc lọc nội dung ít nhất có thể giúp làm chậm người dùng thiếu kinh nghiệm. Việc triển khai các bộ lọc nội dung mạnh là điều bắt buộc, nhưng chúng không hoàn toàn chống lại được.

2. Prompt injection

Prompt injection là thuật ngữ đề cập đến việc khi yêu cầu được tạo thủ công đặc biệt có thể buộc một LLM bỏ qua các bộ lọc nội dung và tạo ra đầu ra bất hợp pháp. Vấn đề này bao trùm tất cả các LLM nhưng sẽ được khuếch đại khi các mô hình này kết nối với thế giới bên ngoài; ví dụ như plugin cho ChatGPT. Những thứ này cho phép chatbot “đánh giá” mã do người dùng tạo, và có thể dẫn đến việc thực thi mã tùy ý. Từ góc độ bảo mật, việc trang bị một chatbot với chức năng như vậy là rất có vấn đề.

Để giúp giảm thiểu hạn chế này, cần phải có một số kỹ năng chuyên môn. Điều quan trọng là phải hiểu khả năng của giải pháp dựa trên LLM và cách nó tương tác với các điểm cuối bên ngoài. Xác định xem nó đã được kết nối với API chưa, đang chạy tài khoản mạng xã hội hay đang tương tác với khách hàng mà không có sự giám sát và đánh giá mô hình phù hợp.

Mặc dù trước đây, prompt injection có thể không quan trọng nhưng hiện tại các cuộc tấn công này có thể gây ra hậu quả rất thực tế khi chúng bắt đầu thực thi mã được tạo, tích hợp vào các API bên ngoài và thậm chí đọc các tab trình duyệt của bạn.

3. Bảo mật dữ liệu - Vi phạm bản quyền

Đào tạo các mô hình ngôn ngữ lớn đòi hỏi lượng dữ liệu khổng lồ, với một số mô hình có số lượng hơn nửa nghìn tỷ tham số. Ở quy mô này, việc hiểu nguồn gốc, quyền tác giả và tình trạng bản quyền là một nhiệm vụ to lớn, nếu không muốn nói là không thể thực hiện được. Một chương trình huấn luyện cho AI chưa được kiểm duyệt có thể dẫn đến rò rỉ dữ liệu riêng tư, ghi sai các trích dẫn hoặc đạo văn nội dung có bản quyền.

Khi các dịch vụ dựa trên LLM được tích hợp với các công cụ tại nơi làm việc, điều quan trọng là phải đọc kỹ chính sách quyền riêng tư của nhà cung cấp, hiểu cách sử dụng khi yêu cầu AI và điều chỉnh việc sử dụng LLM tại nơi làm việc cho phù hợp. Về bảo vệ bản quyền, cần điều chỉnh việc thu thập và sử dụng dữ liệu thông qua chọn tham gia hoặc cấp phép đặc biệt mà không cản trở Internet mở và phần lớn miễn phí như chúng ta có ngày nay.

4. Thông tin sai lệch

Mặc dù tỏ ra “thông minh”, nhưng các LLM không thực sự “hiểu” những gì chúng tạo ra. Thay vào đó, tiền tệ là mối quan hệ xác suất giữa các từ. LLM không thể phân biệt giữa thực tế và hư cấu, một số kết quả đầu ra có vẻ rất đáng tin cậy nhưng hóa ra lại là lời nói dối được diễn đạt một cách tự tin. Một ví dụ về điều này là ChatGPT làm sai lệch các trích dẫn và thậm chí là toàn bộ bài báo, như một người dùng Twitter gần đây đã trực tiếp phát hiện ra.

Các công cụ LLM có thể tỏ ra vô cùng hữu ích trong vô số nhiệm vụ, nhưng con người phải tham gia vào việc xác minh tính chính xác, lợi ích và sự lành mạnh chung của các phản hồi của chúng.

Đầu ra của các công cụ LLM phải luôn được coi là muối bỏ bể. Những công cụ này có thể tỏ ra vô cùng hữu ích trong rất nhiều công việc, nhưng con người phải tham gia vào việc xác minh tính chính xác, lợi ích và sự lành mạnh tổng thể.

5. Lời khuyên tai hại

Khi trò chuyện trực tuyến, ngày càng khó biết bạn đang nói chuyện với người hay máy và một số thực thể có thể muốn lợi dụng điều này. Một ví dụ gần đây. Một công ty công nghệ về sức khỏe tâm thần đã thừa nhận rằng một số người dùng của họ khi tìm kiếm tư vấn trực tuyến đã vô tình tương tác với một bot dựa trên GPT3 thay vì con người. Điều này làm dấy lên những lo ngại về đạo đức về việc sử dụng LLM trong chăm sóc sức khỏe và bất kỳ môi trường nào khác dựa trên việc diễn giải cảm xúc của con người.

Hiện tại, có rất ít hoặc không có sự giám sát theo quy định nào để đảm bảo rằng các công ty không thể sử dụng AI theo cách này dù có hoặc không có sự đồng ý rõ ràng của người dùng cuối. Hơn nữa, các đối thủ có thể sử dụng các bot AI thuyết phục trong hoạt động gián điệp, lừa đảo và các hoạt động bất hợp pháp khác.

AI không có cảm xúc, nhưng phản ứng của nó có thể làm tổn thương cảm xúc của con người hoặc thậm chí dẫn đến những hậu quả bi thảm hơn. Thật vô trách nhiệm khi cho rằng một giải pháp AI có thể giải thích và đáp ứng đầy đủ nhu cầu cảm xúc của một người một cách có trách nhiệm và an toàn.

Việc sử dụng LLM trong chăm sóc sức khỏe và các ứng dụng nhạy cảm khác cần được quản lý chặt chẽ để ngăn ngừa mọi nguy cơ gây hại cho người dùng. Các nhà cung cấp dịch vụ dựa trên LLM phải luôn thông báo cho người dùng về phạm vi đóng góp của AI cho dịch vụ và việc tương tác với bot luôn phải là một lựa chọn thay vì mặc định.

6. Thiên vị

Các giải pháp AI chỉ tốt như dữ liệu mà chúng được đào tạo. Dữ liệu này thường phản ánh thành kiến của con người đối với các đảng phái chính trị, nhóm dân tộc, giới tính hoặc nhân khẩu học khác. Sự thiên vị mang lại những hậu quả tiêu cực cho các nhóm bị ảnh hưởng, trong đó mô hình đưa ra quyết định không công bằng và có thể vừa tế nhị vừa khó giải quyết. Những mô hình được đào tạo dựa trên dữ liệu chưa được kiểm tra từ Internet sẽ luôn phản ánh những thành kiến của con người; những mô hình liên tục học hỏi từ tương tác của người dùng cũng dễ bị thao túng có chủ ý.

Để giảm thiểu rủi ro bị phân biệt đối xử, các nhà cung cấp dịch vụ LLM phải đánh giá cẩn thận bộ dữ liệu đào tạo của họ về bất kỳ sự mất cân bằng nào có thể dẫn đến hậu quả tiêu cực. Các mô hình máy học cũng nên được kiểm tra định kỳ để đảm bảo các dự đoán luôn công bằng và chính xác.

Các mô hình ngôn ngữ lớn đang xác định lại hoàn toàn cách chúng ta tương tác với phần mềm, mang lại vô số cải tiến cho quy trình làm việc của chúng ta. Tuy nhiên, với việc thiếu các quy định có ý nghĩa hiện tại về AI và sự khan hiếm bảo mật nhắm vào các mô hình máy học, việc triển khai LLM một cách vội vàng và rộng rãi có thể sẽ gặp phải những trở ngại đáng kể. Do đó, bắt buộc phải nhanh chóng điều chỉnh và bảo mật công nghệ quý giá này.

Bài liên quan

(0) Bình luận
Nổi bật Tin tức IDS
Đừng bỏ lỡ
Các mô hình ngôn ngữ lớn: 6 cạm bẫy cần tránh
POWERED BY ONECMS - A PRODUCT OF NEKO