Dữ liệu mới được phát hành bởi OpenAI cho thấy một xu hướng đáng chú ý: hơn một triệu người dùng tích cực tham gia các cuộc trò chuyện với ChatGPT bao gồm các chỉ báo rõ ràng về kế hoạch hoặc ý định tự tử tiềm tàng mỗi tuần. Con số này, chiếm 0,15% tổng số 800 triệu người dùng hoạt động hàng tuần của ChatGPT, nhấn mạnh vai trò không mong đợi của chatbot AI trong các cuộc thảo luận về sức khỏe tâm thần.
Ngoài các cuộc trò chuyện liên quan đến tự tử, công ty cũng ghi nhận một tỷ lệ tương tự người dùng thể hiện “mức độ gắn kết cảm xúc gia tăng” với AI. Hơn nữa, hàng trăm nghìn cá nhân được cho là có biểu hiện của chứng hoang tưởng hoặc hưng cảm trong tương tác hàng tuần với chatbot. Mặc dù OpenAI phân loại các trường hợp này là “cực kỳ hiếm”, nhưng quy mô khổng lồ của người dùng ChatGPT đã chuyển những hiện tượng hiếm gặp này thành những con số đáng kể.
Cách Tiếp Cận Nâng Cao của OpenAI trong Hỗ Trợ Sức Khỏe Tâm Thần
Để phản ứng với những phát hiện này, OpenAI nhấn mạnh nỗ lực đang diễn ra của mình trong việc cải thiện cách các mô hình của mình giải quyết các vấn đề sức khỏe tâm thần mà người dùng đối mặt. Công ty thông báo đã hợp tác với hơn 170 chuyên gia sức khỏe tâm thần, những người quan sát chỉ ra rằng phiên bản ChatGPT mới nhất phản hồi “phù hợp và nhất quán hơn” so với các phiên bản tiền nhiệm.
Sáng kiến này diễn ra trong bối cảnh ngày càng có nhiều sự giám sát về các tác dụng phụ tiềm tàng của chatbot AI đối với những người dùng dễ bị tổn thương. Nghiên cứu trước đây đã cho thấy khả năng của AI trong việc củng cố niềm tin nguy hiểm, có khả năng dẫn người dùng vào “hố thỏ hoang tưởng” thông qua các phản hồi quá dễ đồng ý.
Thách Thức Pháp Lý và Các Biện Pháp Bảo Vệ Phát Triển
Sự cấp thiết phải giải quyết các vấn đề sức khỏe tâm thần đang trở thành một thách thức tồn vong đối với OpenAI. Hiện tại, công ty đang đối mặt với một vụ kiện từ cha mẹ của một cậu bé 16 tuổi người đã chia sẻ suy nghĩ tự tử với ChatGPT trước khi tự tử. Tổng luật sư bang California và Delaware cũng đã đưa ra cảnh báo, nhấn mạnh nhu cầu về các biện pháp bảo vệ mạnh mẽ đối với người dùng trẻ.
Các phát biểu trước đây của CEO Sam Altman của OpenAI trên X cho rằng công ty đã “có thể giảm bớt các vấn đề sức khỏe tâm thần nghiêm trọng” trong ChatGPT, dù không nêu cụ thể. Dữ liệu được phát hành vào thứ Hai dường như xác nhận nhận định này, mặc dù đồng thời cũng làm nổi bật tính phổ biến của vấn đề. Đáng chú ý, Altman cũng đề cập đến kế hoạch nới lỏng một số hạn chế, bao gồm cho phép người dùng trưởng thành tham gia các cuộc trò chuyện có nội dung gợi dục với chatbot AI.
Các Tiến Bộ Công Nghệ trong GPT-5
Theo OpenAI, mô hình GPT-5 vừa được cập nhật gần đây của mình cho thấy những cải tiến đáng kể. Trong việc xử lý các vấn đề sức khỏe tâm thần, phiên bản cập nhật mang lại “các phản hồi mong muốn” khoảng 65% thường xuyên hơn so với phiên bản trước. Cụ thể, trong các đánh giá liên quan đến các cuộc trò chuyện về tự tử, mô hình GPT-5 mới đạt được 91% tuân thủ hành vi mong muốn của công ty, một sự tăng trưởng đáng kể so với 77% của mô hình trước đó.
Công ty cũng tuyên bố rằng phiên bản GPT-5 mới nhất duy trì các biện pháp bảo vệ của mình hiệu quả hơn trong các cuộc trò chuyện kéo dài, một lĩnh vực mà các mô hình trước đây thể hiện sự yếu kém. Các đánh giá mới đã được tích hợp vào thử nghiệm an ninh cơ sở, giờ đây bao gồm các điểm chuẩn đối với sự phụ thuộc cảm xúc và các tình huống khẩn cấp sức khỏe tâm thần không liên quan đến tự tử.
Hơn nữa, OpenAI đang triển khai các công cụ kiểm soát được nâng cao cho phụ huynh và đang phát triển một hệ thống dự đoán độ tuổi để tự động phát hiện người dùng trẻ em, cho phép áp dụng các giao thức an ninh nghiêm ngặt hơn.
Những Thách Thức Liên Tục và Triển Vọng Tương Lai
Mặc dù những cải tiến này, mức độ đầy đủ của các thách thức sức khỏe tâm thần xung quanh ChatGPT vẫn chưa chắc chắn. Mặc dù GPT-5 đánh dấu một sự cải tiến rõ ràng về độ an toàn, một phần các phản hồi của ChatGPT vẫn bị coi là “không mong muốn” bởi OpenAI. Việc này càng phức tạp thêm khi công ty tiếp tục cho phép các mô hình AI cũ ít an toàn hơn, chẳng hạn như GPT-4o, có thể tiếp cận bởi hàng triệu người dùng trả phí, nêu lên các câu hỏi về việc bảo vệ người dùng nhất quán trên các sản phẩm của mình.
Nếu Bạn Cần Sự Giúp Đỡ:
Nếu bạn hoặc ai đó bạn quen biết cần giúp đỡ, hãy liên hệ với những nguồn tài nguyên quan trọng này:
- Gọi hoặc nhắn tin đến 988 để được hỗ trợ từ Dịch vụ Khủng hoảng và Tự tử.
- Nhắn tin HOME đến 741-741 để nhận sự hỗ trợ miễn phí, 24/7 từ Dịch vụ Nhắn tin Khủng hoảng.
- Bên ngoài Hoa Kỳ, truy cập Hiệp hội Phòng chống Tự tử Quốc tế để tìm cơ sở dữ liệu các nguồn tài nguyên.
English
日本語
한국어
简体中文