Nghiên cứu - Trao đổi

Tác nhân AI gặp phải những vấn đề lớn về lòng tin

LTV 11:16 15/11/2025

Ngay cả khi các tổ chức đang triển khai tác nhân AI, mối lo ngại về tính minh bạch và khả năng ra quyết định của tác nhân cuối cùng có thể kìm hãm điểm mạnh cốt lõi của công nghệ này.

Các doanh nghiệp đang triển khai tác nhân AI (AI agentic) với tốc độ nhanh chóng, nhưng những nghi ngờ nghiêm trọng về độ chính xác của AI agentic cho thấy thảm họa tiềm tàng đang chờ đợi, theo nhiều chuyên gia.

Điều trớ trêu là tác nhân AI cần có quyền tự chủ trong việc ra quyết định để mang lại giá trị đầy đủ, nhưng nhiều chuyên gia AI vẫn coi chúng như những hộp đen, với lý do đằng sau hành động của chúng là vô hình đối với các tổ chức đang triển khai. Họ cho biết sự thiếu minh bạch trong việc ra quyết định này tạo ra một rào cản tiềm tàng cho việc triển khai đầy đủ các tác nhân như những công cụ tự động mang lại hiệu quả đáng kể.

Tuy nhiên, những lo ngại về lòng tin mà nhiều chuyên gia AI nêu ra dường như không đến được với người dùng tiềm năng, vì nhiều tổ chức đã bắt đầu quan tâm đến các tác nhân này.

Theo một khảo sát được công bố vào tháng 10 bởi sàn giao dịch phần mềm G2, khoảng 57% các công ty B2B đã đưa tác nhân vào sản xuất, và một số công ty phân tích CNTT dự đoán thị trường tác nhân AI sẽ tăng trưởng mạnh mẽ trong những năm tới. Ví dụ, Grand View Research dự đoán tốc độ tăng trưởng kép hàng năm gần 46% từ năm 2025 đến năm 2030.

Các chuyên gia AI cho rằng nhiều tổ chức khách hàng sử dụng AI tác nhân vẫn chưa hiểu được mức độ thiếu minh bạch của tác nhân nếu không có các biện pháp bảo vệ phù hợp. Và, ngay cả khi những rào cản được triển khai, hầu hết các công cụ hiện tại vẫn chưa đủ để ngăn chặn hành vi sai trái của tác nhân.

Bị hiểu lầm và sử dụng sai mục đích

Theo các chuyên gia AI, những hiểu lầm phổ biến về vai trò và chức năng của tác nhân có thể kìm hãm sự phát triển của công nghệ.Nhiều tổ chức coi tác nhân giống như các lệnh đơn giản, với kết quả đầu ra có thể dự đoán được, trong khi người dùng nên đối xử với chúng như những thực tập sinh mới ra trường. Việc kiểm soát một thực tập sinh thực sự khó khăn hơn nhiều, bởi vì họ có thể vô tình hoặc cố ý gây ra thiệt hại, và họ có thể truy cập hoặc tham chiếu đến những thông tin mà họ không nên.

Thách thức đối với các nhà phát triển tác nhân AI và doanh nghiệp người dùng sẽ là quản lý tất cả những tác nhân này. Có thể dễ dàng hình dung rằng một tổ chức 1.000 người triển khai 10.000 tác nhân, và đó không còn là một tổ chức 1.000 người nữa, mà là 11.000 người, một tổ chức rất khác để quản lý.

Đối với các tập đoàn lớn như ngân hàng, số lượng tác nhân có thể đạt tới 500.000 theo thời gian, một tình huống đòi hỏi những cách tiếp cận hoàn toàn mới đối với việc quản lý tài nguyên tổ chức, khả năng quan sát và giám sát CNTT.

Điều này đòi hỏi phải xem xét lại toàn bộ cấu trúc tổ chức và cách thức kinh doanh.

Trong khi một số chuyên gia tin rằng người dùng AI không hiểu vấn đề minh bạch của tác nhân, một báo cáo nghiên cứu trong tháng 10 vừa qua ghi nhận sự tin tưởng ngày càng tăng vào tác nhân trong việc thực hiện một số tác vụ, chẳng hạn như tự động chặn các địa chỉ IP đáng ngờ hoặc khôi phục các triển khai phần mềm không thành công, mặc dù 63% số người được hỏi cho biết các tác nhân của họ cần nhiều sự giám sát của con người hơn dự kiến. Chưa đến một nửa số người được khảo sát cho biết họ tin tưởng tác nhân nói chung sẽ đưa ra quyết định tự chủ, ngay cả khi có các rào cản, và chỉ 8% cảm thấy thoải mái khi trao cho tác nhân quyền tự chủ hoàn toàn.

Cần thận trọng

Các chuyên gia AI khác cảnh báo lãnh đạo CNTT các doanh nghiệp nên cẩn thận khi triển khai tác nhân, do vấn đề minh bạch mà các nhà cung cấp AI vẫn cần giải quyết.

Mặc dù các tác nhân rất tuyệt vời vì chúng loại bỏ con người khỏi vòng lặp, nhưng điều này cũng khiến chúng trở nên cực kỳ nguy hiểm, theo ý kiến của một chuyên gia. Để khắc phục tình trạng thiếu minh bạch này, chuyên gia khuyến nghị nên hạn chế phạm vi hoạt động của tác nhân.

Nhiều chuyên gia AI khác cũng tin rằng các tác nhân tự động được triển khai tốt nhất để đưa ra các quyết định ít rủi ro. Nếu một quyết định ảnh hưởng đến quyền tự do, sức khỏe, giáo dục, thu nhập hoặc tương lai của ai đó, AI chỉ nên hỗ trợ. Mọi hành động đều phải có thể giải thích được, nhưng với AI thì không.

Bài liên quan
  • 3 ngành công nghiệp sẵn sàng ứng dụng AI tác nhân
    Mối quan tâm đến AI tác nhân tự động đang tăng. Tại đây, các lãnh đạo ngành tài chính, bán lẻ và chăm sóc sức khỏe thảo luận về cách họ nhìn nhận công nghệ này tác động đến tổ chức và hoạt động kinh doanh.

(0) Bình luận
Nổi bật Tin tức IDS
Đừng bỏ lỡ
Tác nhân AI gặp phải những vấn đề lớn về lòng tin
POWERED BY ONECMS - A PRODUCT OF NEKO