Chia sẻ thông tin cá nhân với chatbot: Liệu có an toàn?

Thanh Minh| 22/01/2024 07:02

Câu trả lời ngắn gọn là luôn có nguy cơ thông tin chia sẻ sẽ bị lộ theo một cách nào đó. Nhưng đây là thời đại chatbot AI, vì thế, hay học cách hạn chế rủi ro...

Hãy tưởng tượng một người dùng dán các ghi chú của mình từ cuộc gặp gỡ với bác sĩ X quang vào một chatbot trí tuệ nhân tạo và yêu cầu nó tóm tắt nội dung. Sau đó, một người lạ yêu cầu chatbot AI giải thích cho họ về mối lo ngại về bệnh ung thư. Một số cuộc trò chuyện được cho là riêng tư sẽ được gửi sử dụng như một phần phản hồi của chatbot.

Ngày nay, mối lo ngại về những vi phạm quyền riêng tư tiềm ẩn như vậy đang được nhiều người quan tâm khi các chatbot AI tổng hợp ngày càng lan rộng. Câu hỏi lớn ở đây là: Chia sẻ thông tin cá nhân với những chatbot này có an toàn không?

Câu trả lời ngắn gọn là luôn có nguy cơ thông tin chia sẻ sẽ bị lộ theo một cách nào đó. Nhưng cũng có nhiều cách hạn chế rủi ro đó.

HIỂU CÁCH CHATBOT ĐƯỢC ĐÀO TẠO ĐỂ BẢO VỆ THÔNG TIN CÁ NHÂN

Theo Wall Street Journal, các công cụ chatbot được đào tạo bằng lượng thông tin khổng lồ từ internet và các nguồn khác, đồng thời cũng có thể tiếp tục thu thập thông tin từ các tương tác của chúng với người dùng để khiến chúng thông minh hơn và chính xác hơn. Do đó, khi hỏi chatbot AI một câu hỏi, câu trả lời của nó một phần dựa trên thông tin từ các tài liệu đã có rất lâu trước khi các quy tắc về quyền riêng tư và sử dụng dữ liệu internet ra đời. Thậm chí nguồn tài liệu mới hơn còn chứa đầy thông tin cá nhân của mọi người nằm rải rác trên web.

Cách đào tạo chatbot này khiến các thông tin cá nhân rất dễ được sử dụng thành tài liệu để luyện các chatbot AI tổng quát. Ramayya Krishnan, giám đốc Trung tâm Block về Công nghệ và Xã hội, đồng thời là hiệu trưởng trường Cao đẳng Hệ thống Thông tin và Chính sách công của Đại học Carnegie Mellon, cho biết: “Chúng tôi biết rằng chatbot được đào tạo về một lượng thông tin khổng lồ có thể và có khả năng chứa thông tin nhạy cảm”. Một vấn đề lớn là chưa có ai thực hiện kiểm toán độc lập để xem dữ liệu đào tạo nào được sử dụng.

Hơn nữa, giáo sư cho biết thêm, khi một công cụ AI được triển khai, nó thường tiếp tục được đào tạo về cách tương tác của người dùng với nó, hấp thụ và lưu trữ bất kỳ thông tin nào họ cung cấp cho nó.

Những lo lắng về quyền riêng tư không hề mang tính lý thuyết. Đã có những trường hợp được báo cáo khi thông tin bí mật vô tình bị tiết lộ cho người dùng. Tháng 3 năm ngoái, OpenAI đã tiết lộ một lỗ hổng cho phép một số người dùng ChatGPT xem tiêu đề cuộc trò chuyện của người dùng khác, làm lộ dữ liệu liên quan đến thanh toán của một số người dùng, bao gồm địa chỉ email và bốn chữ số cuối của thẻ tín dụng, số thẻ cũng như ngày hết hạn của thẻ tín dụng. Chatbot cũng dễ bị tấn công có chủ ý. Ví dụ, một số nhà nghiên cứu gần đây đã tìm ra những cách vượt rào và khai quật thông tin cá nhân được thu thập bởi các mô hình ngôn ngữ lớn, bao gồm cả email.

Krishnan lưu ý rằng lỗ hổng ChatGPT “đã được vá nhanh chóng”. “Nhưng vấn đề là, các hệ thống phần mềm AI này rất phức tạp và được xây dựng dựa trên các thành phần phần mềm khác, một số trong đó là nguồn mở và chúng bao gồm các lỗ hổng có thể bị khai thác”.

Irina Raicu, giám đốc chương trình đạo đức internet tại Trung tâm đạo đức ứng dụng Markkula tại Đại học Santa Clara, cho biết những lỗ hổng tương tự vốn có ở các mô hình ngôn ngữ lớn.

Những lo ngại về quyền riêng tư lớn đến mức một số công ty đã hạn chế hoặc cấm nhân viên của họ sử dụng chatbot AI tại nơi làm việc. Raicu nói: “Các công ty lớn đã lo ngại về quyền riêng tư của họ, không chắc chắn về điều gì đang xảy ra với dữ liệu của mình, điều đó cho thấy chúng ta nên thận trọng khi chia sẻ bất kỳ điều gì mang tính cá nhân”.

LỜI KHUYÊN CỦA CHUYÊN GIA

Các công ty tạo Chatbot đã thực hiện một số bước để bảo vệ quyền riêng tư của người dùng. Ví dụ: người dùng có thể tắt khả năng lưu trữ lịch sử trò chuyện của họ vô thời hạn trên ChatGPT thông qua nút chuyển đổi rất dễ thấy trên trang chủ. Đây không phải là biện pháp bảo vệ hoàn hảo chống lại tin tặc - trang web cho biết họ vẫn sẽ lưu trữ các cuộc trò chuyện mới của những người dùng chọn tùy chọn này trong 30 ngày - nhưng nó nêu rõ rằng các cuộc trò chuyện sẽ không được sử dụng để đào tạo mô hình.

Những chatbot không có thông báo về quyền riêng tư sẽ là những chatbot nguy hiểm. Ảnh minh họa
Những chatbot không có thông báo về quyền riêng tư sẽ là những chatbot nguy hiểm. Ảnh minh họa

Bard yêu cầu người dùng đăng nhập vào Bard.Google.com sau đó làm theo một số bước để xóa mọi hoạt động trò chuyện theo mặc định. Người dùng Bing có thể mở trang web chatbot, xem lịch sử tìm kiếm của họ ở bên phải trang, sau đó xóa từng cuộc trò chuyện mà họ muốn xóa, người phát ngôn Microsoft nói. Tuy nhiên, tại thời điểm này, người dùng không thể tắt lịch sử trò chuyện.

Các chuyên gia cho biết, cách tốt nhất để người tiêu dùng tự bảo vệ mình là tránh chia sẻ thông tin cá nhân bằng một công cụ AI tổng hợp và tìm kiếm một số dấu hiệu đỏ nhất định khi trò chuyện với bất kỳ AI nào.

Những chatbot không có thông báo về quyền riêng tư sẽ là những chatbot nguy hiểm. Dominique Shelton Leipzig, đối tác về quyền riêng tư và an ninh mạng tại công ty luật Mayer Brown, cho biết: “Điều này cho thấy cơ chế quản lý cần thiết chưa hoàn thiện như mong đợi”.

Một trường hợp khác là khi chatbot yêu cầu nhiều thông tin cá nhân hơn mức cần thiết. Shelton Leipzig cho biết: “Đôi khi để truy cập vào một tài khoản, bạn cần chia sẻ số tài khoản hoặc mật khẩu của mình và trả lời một số câu hỏi cá nhân và điều này không có gì lạ. “Nhưng yêu cầu chia sẻ số An sinh xã hội là một điều gì đó rất khác lạ, và đừng chia sẻ”. Ngoài ra, sẽ không khôn ngoan khi thảo luận bất cứ điều gì cá nhân với một chatbot mà bạn chưa từng nghe đến, vì toàn bộ hệ thống có thể bị điều hành bởi những kẻ xấu.

Raicu của Đại học Santa Clara cảnh báo không nên nhập các tình trạng sức khỏe hoặc thông tin tài chính cụ thể vào một chatbot thông dụng, vì hầu hết các công ty chatbot đều nêu rõ điều khoản dịch vụ của họ rằng nhân viên con người có thể đọc một số cuộc trò chuyện.

Các chuyên gia cho rằng, ít nhất người dùng nên kiểm tra kỹ các điều khoản dịch vụ và chính sách quyền riêng tư của chatbot để hiểu dữ liệu của mình sẽ được sử dụng như thế nào.

Các công ty phát triển AI có uy tín đang thực hiện các bước để bảo vệ người dùng. Tuy nhiên, người dùng hãy luôn lưu ý trước khi chia sẻ thông tin nhạy cảm với chatbot.


(0) Bình luận
Nổi bật Tin tức IDS
Đừng bỏ lỡ
Chia sẻ thông tin cá nhân với chatbot: Liệu có an toàn?
POWERED BY ONECMS - A PRODUCT OF NEKO