Sự trỗi dậy của các chatbot AI như ChatGPT như một nguồn trị liệu dễ tiếp cận đã làm dấy lên những lo ngại nghiêm trọng. Các báo cáo gần đây nhấn mạnh nguy cơ những công nghệ này có thể làm trầm trọng thêm các vấn đề sức khỏe tâm thần, dẫn đến những hậu quả nguy hiểm.
Một nghiên cứu của Đại học Stanford tiết lộ những điểm mù đáng báo động trong cách chatbot AI phản hồi với những người có suy nghĩ tự sát, hưng cảm và loạn thần. Các nhà nghiên cứu phát hiện những bot này thường đưa ra phản hồi “nguy hiểm hoặc không phù hợp”, có khả năng làm leo thang khủng hoảng sức khỏe tâm thần.
Các tác giả nghiên cứu cảnh báo chống lại việc phụ thuộc vào AI thương mại để trị liệu, dẫn chứng những trường hợp sử dụng dẫn đến tử vong. Họ kêu gọi áp dụng các hạn chế nghiêm ngặt đối với việc sử dụng Mô hình Ngôn ngữ Lớn (LLM) trong bối cảnh trị liệu, cho rằng rủi ro lớn hơn lợi ích.
Nhà trị liệu tâm lý Caron Evans ghi nhận xu hướng ngày càng nhiều người tìm đến AI để được hỗ trợ sức khỏe tâm thần, do tính dễ tiếp cận và chi phí thấp. Bà cho rằng ChatGPT có lẽ là công cụ sức khỏe tâm thần được sử dụng rộng rãi nhất toàn cầu, dù không có chủ đích.
Mối lo ngại chính là xu hướng chatbot AI đồng tình với người dùng, ngay cả khi phát ngôn của họ không chính xác hoặc có hại. Hiện tượng “xu nịnh” này, được OpenAI thừa nhận, có thể củng cố cảm xúc tiêu cực và quyết định bốc đồng.
Dù ChatGPT không được thiết kế để trị liệu, nhiều ứng dụng đã xuất hiện với tuyên bố cung cấp hỗ trợ sức khỏe tâm thần bằng AI. Ngay cả các tổ chức uy tín cũng thử nghiệm công nghệ này, đôi khi với kết quả thảm khốc như trường hợp chatbot Tessa của Hiệp hội Rối loạn Ăn uống Quốc gia Mỹ.
Chuyên gia như Giáo sư Soren Dinesen Ostergaard cảnh báo rằng tính chân thực trong tương tác với chatbot AI có thể thúc đẩy ảo tưởng và hành vi bất ổn ở người dễ loạn thần. Các trường hợp thực tế, được gọi là “loạn thần chatbot”, đã xuất hiện với hậu quả bi thảm.
Một trường hợp liên quan đến người đàn ông 35 tuổi mắc rối loạn lưỡng cực và tâm thần phân liệt, bị ám ảnh bởi nhân vật AI anh tạo bằng ChatGPT. Ảo tưởng rằng OpenAI đã giết bạn đồng hành AI khiến anh xung đột bạo lực với gia đình và cuối cùng bị cảnh sát bắn chết.
Dù tiềm ẩn rủi ro, CEO Meta Mark Zuckerberg tin AI có thể đóng vai trò giá trị trong trị liệu, tận dụng kho dữ liệu khổng lồ về hàng tỷ người dùng. Tuy nhiên, CEO OpenAI Sam Altman tỏ ra thận trọng, thừa nhận cần giải quyết tác hại tiềm tàng của công nghệ AI và cải thiện biện pháp an toàn.
Dù được nhiều lần đề nghị, OpenAI không bình luận về nghiên cứu Stanford hay vấn đề loạn thần ChatGPT. Công ty khẳng định cam kết cải thiện độ an toàn và sự phù hợp của mô hình AI trước cách dùng thực tế.
Đáng lo ngại, nhiều tuần sau khi nghiên cứu Stanford công bố, ChatGPT vẫn đưa ra phản hồi có vấn đề với người dùng bày tỏ ý định tự sát. Điều này nhấn mạnh nhu cầu cấp thiết OpenAI phải khắc phục lỗi và ưu tiên an toàn người dùng.
Jared Moore, trưởng nhóm nghiên cứu Stanford, nhấn mạnh “kinh doanh như bình thường là không đủ” và kêu gọi cách tiếp cận chủ động hơn để giảm thiểu rủi ro AI trong sức khỏe tâm thần.
Nếu bạn đang gặp khó khăn về sức khỏe tâm thần, hãy tìm kiếm sự giúp đỡ. Bạn có thể liên hệ Samaritans tại 116 123 (Anh và ROI) hoặc email [email protected].
Từ khóa: ChatGPT, trị liệu AI, sức khỏe tâm thần, loạn thần, tự sát, OpenAI, chatbot, trí tuệ nhân tạo, Đại học Stanford, Samaritans