Tại sao ChatGPT lại ‘sợ’ cái tên bí ẩn này

Việc ChatGPT "bó tay" trước một số cái tên không chỉ đơn thuần là một lỗi kỹ thuật, mà còn liên quan đến các vấn đề sâu xa hơn về quyền riêng tư.

Những công cụ như ChatGPT khiến nhiều người nổi tiếng lo ngại về vấn đề bảo mật thông tin trên Internet. Ảnh: ShutterStock.

Tuần trước, người dùng ChatGPT đã phát hiện ra một hiện tượng kỳ lạ, mô hình ngôn ngữ này không thể xử lý yêu cầu liên quan đến cái tên "David Mayer".

Bất cứ khi nào người dùng nhập tên này, họ đều nhận được thông báo "Tôi không thể tạo ra phản hồi". Thậm chí, trong một số trường hợp, cuộc trò chuyện còn bị chấm dứt đột ngột.

Tin đồn cho rằng cái tên đó là một "điểm yếu" chí mạng của chatbot đã nhanh chóng trở thành tâm điểm chú ý.

Cộng đồng mạng mới đây còn phát hiện ra rằng danh sách những cái tên khiến ChatGPT "sợ hãi" ngày càng dài ra. Những cái tên như Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber và Guido Scorza cũng khiến chatbot này gặp trục trặc.

Mặc dù đã có nhiều giả thuyết được đưa ra, nguyên nhân thực sự lại đơn giản hơn nhiều.

Những người thử nghiệm nhận ra rằng một vài tên trong số này thường thuộc về những người nổi tiếng hoặc có sức ảnh hưởng, chủ yếu là các cá nhân muốn kiểm soát chặt chẽ thông tin của mình trên các nền tảng trực tuyến, đặc biệt là các công cụ tìm kiếm và mô hình AI.

Ví dụ như “Brian Hood” là tên của một thị trưởng người Australia. Vị này từng buộc tội ChatGPT đã mô tả sai về mình, cho rằng mình là thủ phạm của một vụ án xảy ra cách đây nhiều thập kỷ. Bản thân ông cũng là người chủ động báo cáo vụ việc.

Mặc dù luật sư của ông đã liên hệ với OpenAI để khiếu nại, cuối cùng, không có vụ kiện nào được đưa ra. Theo chia sẻ của ông với báo Sydney Morning Herald đầu năm nay, nội dung mà ChatGPT nói sai đã bị xóa.

Chủ sở hữu của những cái tên nổi bật còn lại bao gồm phóng viên kỳ cựu của CNBC David Faber, luật sư kiêm bình luận viên Fox News Jonathan Turley, chuyên gia pháp lý Jonathan Zittrain và Guido Scorza, thành viên hội đồng quản trị của Cơ quan Bảo vệ Dữ liệu Ý.

Đặc biệt, Jonathan Zittrain là người đã có những đóng góp đáng kể vào việc định hình khái niệm "quyền được quên".

Mặc dù đến từ những lĩnh vực khác nhau, việc họ xuất hiện trong danh sách này không phải là một sự trùng hợp ngẫu nhiên. Mỗi người trong số họ đều có thể đã từng yêu cầu hạn chế thông tin cá nhân trên mạng.

Trở lại với David Mayer, TechCrunch cho rằng ông là một giáo sư dạy kịch và lịch sử, chuyên về mối liên hệ giữa phim ảnh với thời kỳ Victoria ở Anh.

Ông Mayer qua đời vào mùa hè năm 2023, ở tuổi 94. Nhiều năm trước, vị học giả này gặp phải một rắc rối lớn khi tên của ông bị một tội phạm truy nã lợi dụng làm bí danh. Điều này gây ảnh hưởng nghiêm trọng đến cuộc sống của ông, thậm chí ông còn không thể đi du lịch.

Suốt những năm tháng còn lại của cuộc đời, Mayer đã không ngừng nỗ lực để phân biệt bản thân với kẻ tội phạm đã mạo danh mình.

Nhận định về vụ việc, TechCrunch cho rằng ChatGPT đã được lập trình để xử lý một số tên riêng theo cách đặc biệt. Điều này có thể là do các lý do về pháp lý, an toàn, hoặc để bảo vệ quyền riêng tư.

Có thể đã có một lỗi trong mã lệnh hoặc quy tắc hoạt động của ChatGPT, đặc biệt là phần liên quan đến danh sách các cái tên cần xử lý đặc biệt. Lỗi này có thể khiến chatbot hiểu sai lệnh và hoạt động không như mong muốn.

OpenAI đã xác nhận hôm 3/12 rằng cái tên "David Mayer" đã bị công cụ bảo mật nội bộ gắn cờ.

"Có thể có những trường hợp ChatGPT không cung cấp một số thông tin về mọi người để bảo vệ quyền riêng tư của họ. Công ty sẽ không cung cấp thêm chi tiết”, OpenAI cho biết trong một tuyên bố.

Dùng ChatGPT thế nào để không tạo ra nội dung vô tri

Sự phát triển của AI mở ra nhiều tiềm năng nhưng cũng có không ít mối lo đối với ngành xuất bản, đặc biệt là nhóm tác giả viết sách.

Các tác giả sách cần phải chấp nhận sự vươn lên của AI, sử dụng chúng như một "siêu trợ lý" thay vì chối bỏ trào lưu. Chia sẻ với Tri thức - Znews, nhiều cây viết cho rằng người làm sách vẫn có thể đứng vững trong thời đại AI nếu biết cách tận dụng sức mạnh của trí tuệ nhân tạo.