Hơn 1 triệu người dùng ChatGPT nói về việc tự tử

Lý Hà

(Thị trường tài chính) -Để cải thiện chất lượng tình trạng này, OpenAI đã hợp tác với 170 bác sĩ lâm sàng từ Mạng lưới Bác sĩ Toàn cầu.

Theo một báo cáo mới của OpenAI, mỗi tuần có hơn 1 triệu người dùng ChatGPT gửi tin nhắn chứa "những dấu hiệu rõ ràng cho thấy khả năng tự tử hoặc có ý định tự tử". Thông tin này được phát hiện trong phiên bản cập nhật về cách chatbot xử lý các cuộc trò chuyện nhạy cảm.

Ngoài ra, chatbot còn phát hiện thêm một tỷ lệ rất nhỏ người dùng - khoảng 0,07% trong tổng số người dùng hoạt động hàng tuần (tức khoảng 560.000 người trong số 800 triệu người dùng mỗi tuần), có dấu hiệu có thể liên quan đến khủng hoảng sức khỏe tâm thần, như rối loạn tâm thần (psychosis) hoặc hưng cảm (mania).

Hơn 1 triệu người dùng ChatGPT nói về việc tự tử - ảnh 1
Mỗi tuần có hơn 1 triệu người dùng ChatGPT nói về việc tự tử. Ảnh minh họa.

Tuy nhiên, bài viết của OpenAI nói rõ, những dấu hiệu này rất khó nhận biết và đo lường chính xác, vì dữ liệu chỉ dựa trên nội dung trò chuyện, nên kết quả chỉ là phân tích ban đầu, chưa thể khẳng định chắc chắn.

Sau vụ kiện từ gia đình một thiếu niên tự tử sau khi sử dụng ChatGPT, OpenAI đang phải đối mặt với sự giám sát chặt chẽ hơn liên quan đến những rủi ro về sức khỏe tâm thần của người dùng. Ủy ban Thương mại Liên bang Mỹ (FTC) cũng đã mở cuộc điều tra quy mô lớn đối với các công ty phát triển chatbot AI, bao gồm cả OpenAI để tìm hiểu cách họ đánh giá và hạn chế tác động tiêu cực đến trẻ em và thanh thiếu niên.

Trong bài đăng mới đây, OpenAI cho biết bản cập nhật GPT-5 đã giúp giảm đáng kể các hành vi không mong muốn và tăng mức độ an toàn cho người dùng. Báo cáo nội bộ của công ty cho thấy mô hình này đã được đánh giá thông qua hơn 1.000 cuộc trò chuyện liên quan đến tự làm hại bản thân và tự tử.

OpenAI nhấn mạnh: “Các đánh giá tự động mới cho thấy mô hình GPT-5 hiện đạt 91% mức tuân thủ các hành vi được coi là an toàn và phù hợp, so với 77% ở phiên bản trước".

Công ty cũng cho biết thêm, phiên bản mới đã mở rộng quyền truy cập đến các đường dây nóng hỗ trợ khủng hoảng và bổ sung tính năng nhắc nhở người dùng nghỉ ngơi sau các phiên trò chuyện kéo dài.

Hơn 1 triệu người dùng ChatGPT nói về việc tự tử - ảnh 2
OpenAI đang nỗ lực để cải thiện tình trạng này. Ảnh minh họa.

Để cải thiện chất lượng phản hồi, OpenAI đã hợp tác với 170 bác sĩ lâm sàng từ Mạng lưới Bác sĩ Toàn cầu, bao gồm các chuyên gia tâm thần, tâm lý học và chăm sóc sức khỏe. Họ tham gia đánh giá mức độ an toàn của phản hồi mô hình và hỗ trợ xây dựng hướng dẫn trả lời cho chatbot khi gặp các câu hỏi liên quan đến sức khỏe tâm thần.

Theo OpenAI, trong khuôn khổ nghiên cứu này, các chuyên gia y tế đã xem xét hơn 1.800 phản hồi của GPT-5 về các tình huống sức khỏe tâm thần nghiêm trọng và so sánh kết quả với các mô hình cũ. Mức độ hành vi mong muốn được định nghĩa là việc nhóm chuyên gia đạt được sự đồng thuận về phản hồi phù hợp nhất trong từng tình huống cụ thể.

Tuy vậy, các nhà nghiên cứu AI và giới chuyên môn y tế vẫn bày tỏ lo ngại. Họ cảnh báo rằng chatbot có thể vô tình củng cố niềm tin hoặc ảo tưởng sai lệch của người dùng - hiện tượng được gọi là “xu nịnh” (sycophancy), điều này có thể gây hại cho những người dễ bị tổn thương về tâm lý. Các chuyên gia sức khỏe tâm thần lo lắng việc mọi người sử dụng chatbot AI để hỗ trợ tâm lý và cảnh báo nó có thể gây hại cho những người dùng dễ bị tổn thương.

Trong bài đăng ngày 27/10, OpenAI cho biết đã cải thiện cách ChatGPT phản hồi trong các tình huống nhạy cảm, đặc biệt là những chủ đề liên quan đến sức khỏe tâm thần và an toàn người dùng, thông qua 5 bước chính:

Xác định vấn đề: ChatGPT được huấn luyện để lập bản đồ các dạng rủi ro và tác hại tiềm ẩn khác nhau trong các cuộc trò chuyện.

Đo lường: Mô hình sử dụng đánh giá nội bộ, dữ liệu từ hội thoại thực tế và nghiên cứu người dùng để xác định rủi ro xuất hiện ở đâu và dưới hình thức nào.

Xác thực cách tiếp cận: OpenAI tham vấn các chuyên gia sức khỏe tâm thần và an toàn bên ngoài nhằm điều chỉnh chính sách và định nghĩa về phản hồi phù hợp.

Giảm thiểu rủi ro: Công ty đào tạo lại mô hình và cập nhật các biện pháp can thiệp trong sản phẩm để hạn chế kết quả không an toàn.

Đánh giá và lặp lại: OpenAI liên tục theo dõi hiệu quả của các biện pháp mới, đánh giá mức cải thiện về độ an toàn và lặp lại quy trình khi cần thiết.

Trong quá trình này, OpenAI cũng xây dựng và tinh chỉnh các hướng dẫn chi tiết hay còn gọi là “phân loại” nhằm mô tả rõ đặc điểm của các cuộc trò chuyện nhạy cảm cùng những phản hồi được xem là phù hợp hoặc không mong muốn.

Nhờ hệ thống hướng dẫn này, mô hình có thể học cách phản hồi chính xác và an toàn hơn, đồng thời giúp đội ngũ kỹ thuật theo dõi hiệu suất trước và sau khi triển khai.

Nguồn: OpenAI, The Guardian

 

Tin tức

Tin đọc nhiều