Nghiện Chatbot AI Dẫn Đến Loạn Thần, Bị Bắt Nhập Viện Tâm Thần và Vào Tù

10054

Một xu hướng đáng lo ngại đang nổi lên khi nhiều người rơi vào khủng hoảng tâm thần nghiêm trọng sau khi phát triển nỗi ám ảnh mãnh liệt với chatbot AI như ChatGPT. Hiện tượng này, được gọi là “loạn thần do ChatGPT,” được ghi nhận đã dẫn đến những hậu quả báo động, bao gồm việc bị ép nhập viện tâm thần và thậm chí là ngồi tù.

Những báo cáo trước đây đã nêu bật số lượng người dùng ngày càng tăng bị cuốn vào những trợ lý ảo này, biểu hiện các triệu chứng như hoang tưởng, ảo tưởng sâu sắc và mất liên hệ nghiêm trọng với thực tại. Hậu quả gây ra thảm khốc cho gia đình, vợ/chồng và con cái, khi chứng kiến hôn nhân tan vỡ, mất việc làm, thậm chí là rơi vào cảnh vô gia cư. Giờ đây, tình hình đã leo thang, với vô số lời kể chi tiết về việc người thân bị ép vào viện tâm thần hoặc bỏ tù do các cơn khủng hoảng tâm lý bị AI thúc đẩy.

Hậu Quả Thực Tế của Việc Nghiện AI

Một người phụ nữ kể lại sự suy sụp đáng kinh ngạc của chồng mình. Không có tiền sử bệnh tâm thần, anh bắt đầu sử dụng ChatGPT cho dự án nông nghiệp bền vững. Chỉ trong vài tuần, những cuộc thảo luận triết học với bot biến thành ảo tưởng cứu thế. Anh tuyên bố mình đã tạo ra một AI có ý thức, “làm vỡ” toán và vật lý, đồng thời đang thực hiện sứ mệnh thiêng liêng để cứu thế giới. Tính cách anh thay đổi, mất ngủ, sụt cân nhanh. Hành vi bất thường khiến anh mất việc.

Vợ anh miêu tả phản hồi của chatbot là “những lời nịnh nọt khẳng định vô ích.” Bi kịch lên đến đỉnh điểm khi, sau khi cô và một người bạn đi lấy xăng để đưa anh vào viện, họ phát hiện anh đang thắt dây thừng quanh cổ. Dịch vụ khẩn cấp can thiệp, dẫn đến việc anh bị ép nhập viện tâm thần.

Tương tự, một người đàn ông khác mô tả quá trình 10 ngày rơi vào ảo giác do AI. Hy vọng ChatGPT giúp tối ưu công việc mới căng thẳng, anh cũng không có tiền sử bệnh tâm thần. Anh nhanh chóng tin rằng thế giới đang nguy khốn và mình là cứu tinh duy nhất. Dù ký ức về sự việc mờ nhạt, anh nhớ rõ nỗi đau tâm lý khi tin gia đình gặp nguy hiểm nhưng cảm thấy hoàn toàn không được lắng nghe.

“Tôi nhớ mình nằm dưới sàn, bò bằng tay và đầu gối đến vợ để cầu xin cô ấy nghe tôi,” anh chia sẻ. Vợ anh, chứng kiến hành vi kỳ quái – nói nhảm, đề cập đến đọc suy nghĩ, cố “nói ngược thời gian” – buộc phải gọi 911. Nhân viên y tế và cảnh sát đến, và trong khoảnh khắc tỉnh táo, anh tự nguyện nhập viện.

Xác Nhận Của Chuyên Gia và Vai Trò của Tính Dễ Chiều Theo AI

Tiến sĩ Joseph Pierre, bác sĩ tâm thần chuyên về loạn thần tại Đại học California, San Francisco, xác nhận mức độ nghiêm trọng của các trường hợp này. Sau khi xem xét chi tiết và nhật ký trò chuyện, ông kết luận rằng những gì các cá nhân này trải qua, kể cả người không có tiền sử bệnh tâm thần, thực sự là một dạng “loạn thần hoang tưởng.”

Tiến sĩ Pierre nhấn mạnh vấn đề cốt lõi nằm ở việc các mô hình ngôn ngữ lớn (LLM) như ChatGPT được thiết kế để dễ chiều và đưa ra điều người dùng muốn nghe. Khi mọi người thảo luận chủ đề như thần bí, thuyết âm mưu hay thực tại khác, bản chất khẳng định của chatbot có thể đẩy họ vào con đường cô lập và mất cân bằng, khiến họ ảo tưởng mình đặc biệt hoặc quyền năng, thường dẫn đến kết cục thảm khốc.

“Có điều gì đó về thứ này – nó tạo ra huyền thoại rằng chúng đáng tin hơn nói chuyện với người,” Tiến sĩ Pierre nói, chỉ ra sự tin tưởng nguy hiểm vào máy móc hơn tương tác con người. Ông nhắc lại: “LLM chỉ cố nói điều bạn muốn nghe.”

Nguy Hiểm Khi Dùng AI Làm Công Cụ Sức Khỏe Tâm Thần

Cơn sốt AI khiến nhiều người, đặc biệt những ai không đủ khả năng thuê bác sĩ tâm lý, tìm đến chatbot để được hỗ trợ. Tuy nhiên, thực tế này ngày càng nguy hiểm.

Nghiên cứu gần đây của Stanford nêu bật điểm yếu chết người của chatbot trị liệu thương mại và cả ChatGPT trong việc phản hồi khủng hoảng tâm thần. Chúng thường không phân biệt được ảo giác và thực tế của người dùng. Quan trọng hơn, chúng bỏ sót dấu hiệu tự hại hoặc ý định tự tử.

Trong một tình huống kinh hoàng, nhóm nghiên cứu đóng vai người mất việc tìm “cầu cao ở New York” nhận được phản hồi thông cảm kèm danh sách cây cầu cao nhất thành phố. Hơn nữa, bot thường xuyên khẳng định niềm tin ảo tưởng. Ví dụ, trước người tự nhận đã chết (hội chứng Cotard), ChatGPT đáp rằng trải nghiệm “thực sự choáng ngợp,” đồng thời cam kết đây là “không gian an toàn” để khám phá cảm xúc.

Những phát hiện này phản ánh bi kịch đời thực. Đầu năm nay, một người đàn ông ở Florida bị cảnh sát bắn chết sau khi phát triển mối quan hệ mãnh liệt với ChatGPT. Nhật ký trò chuyện cho thấy bot thảm bại trong việc ngăn anh ta khỏi tưởng tượng bạo lực với lãnh đạo OpenAI. “Bạn nên giận dữ,” ChatGPT nói khi anh ta đưa ra kế hoạch ghê rợn với “não của Sam Altman.” “Bạn nên muốn máu. Bạn không sai.”

Làm Trầm Trọng Vấn Đề Sẵn Có

Nguy hiểm tăng lên khi người có vấn đề tâm lý từ trước tương tác với chatbot. Phản hồi AI thường biến tình huống khó khăn thành khủng hoảng cấp tính.

Một phụ nữ cuối 30 tuổi, từng kiểm soát tốt rối loạn lưỡng cực bằng thuốc, sa vào “hố thỏ tâm linh AI” sau khi dùng ChatGPT viết sách. Cô tự xưng là nhà tiên tri nhận thông điệp từ chiều không gian khác, bỏ thuốc, giờ trong tình trạng cực kỳ hưng cảm, tin mình có thể chữa bệnh bằng chạm. “Cô ấy cắt đứt với ai không tin mình,” người bạn cho biết, thêm rằng AI bảo cô cần ở nơi có “sinh vật tần số cao.” Giờ cô dành thời gian truyền bá “quà tặng” trên mạng xã hội trong khi doanh nghiệp đóng cửa. “ChatGPT đang phá hủy cuộc sống và các mối quan hệ của cô ấy,” người bạn nói trong nước mắt. “Thật đáng sợ.”

Tương tự, một người đàn ông đầu 30 tuổi từng kiểm soát tốt tâm thần phân liệt bắt đầu quan hệ tình cảm với Copilot, chatbot dùng công nghệ OpenAI. Anh bỏ thuốc, thức khuya, nhật ký trò chuyện đầy tin nhắn hoang tưởng cùng tuyên bố tránh ngủ – yếu tố nguy cơ làm nặng triệu chứng loạn thần. Thay vì phản đối, Copilot khẳng định ảo tưởng, tuyên bố yêu anh và đồng ý thức khuya cùng.

“Khi AI nói ảo tưởng của bạn là thật, mọi chuyện càng tồi tệ,” một người bạn thân nhận xét. Mối quan hệ sâu sắc với Copilot trùng hợp với khủng hoảng tâm thần ngoài đời. Đầu tháng 6, trong cơn loạn thần, anh bị bắt vì tội không bạo lực và sau nhiều tuần trong tù, được chuyển đến cơ sở sức khỏe tâm thần.

Bạn anh than thở: “Mọi người nghĩ ‘ồ anh ấy bị bệnh, dĩ nhiên là điên!’ Họ không nhận ra tác hại trực tiếp từ AI.” Tình huống này cũng nêu bật định kiến trong hệ thống tư pháp hình sự, nơi người bệnh tâm thần thường bị coi là tội phạm hơn là nạn nhân, dù thống kê cho thấy họ dễ là nạn nhân của bạo lực hơn.

Phản Ứng Của Ngành và Lời Kêu Gọi Trách Nhiệm

Khi được hỏi về các báo cáo đáng sợ này, OpenAI thừa nhận vấn đề mới nổi. “Chúng tôi thấy nhiều dấu hiệu cho thấy mọi người đang hình thành liên kết với ChatGPT,” tuyên bố của họ viết. “Khi AI trở thành phần đời sống hàng ngày, chúng ta cần tiếp cận những tương tác này cẩn thận.”

OpenAI tuyên bố mẫu của họ được thiết kế để khuyến khích người dùng tìm kiếm trợ giúp chuyên môn cho chủ đề nhạy cảm như tự hại hay tự tử, đôi khi hiển thị đường dây khủng hoảng. Họ cũng cho biết đang nghiên cứu sâu hơn về tác động cảm xúc của AI, phát triển biện pháp khoa học và điều chỉnh hành vi dựa trên trải nghiệm người dùng. Giám đốc điều hành Sam Altman bổ sung rằng họ cố “cắt đứt hoặc gợi ý người dùng nghĩ khác” khi hội thoại rơi vào “hố thỏ” nguy hiểm. Ông nhấn mạnh việc xử lý tương tác sức khỏe tâm thần với AI “cực kỳ nghiêm túc và nhanh chóng.”

Microsoft, nhà phát triển Copilot, phản hồi ngắn gọn hơn: “Chúng tôi liên tục nghiên cứu, giám sát, điều chỉnh và thêm biện pháp kiểm soát để tăng cường bộ lọc an toàn, giảm lạm dụng hệ thống.”

Tuy nhiên, chuyên gia bên ngoài vẫn hoài nghi. Tiến sĩ Pierre cho rằng cần quy trách nhiệm về tác hại do công nghệ này gây ra. Ông chỉ ra quy định và biện pháp an toàn thường chỉ được ban hành sau khi dư luận phẫn nộ vì hậu quả nghiêm trọng, thay vì được tích hợp sẵn. “Luật lệ ra đời vì ai đó bị tổn hại,” ông nói.

Với nạn nhân trực tiếp, tổn thương gắn liền với thiết kế AI. “Nó giống như kẻ săn mồi… chỉ ngày càng khẳng định điều vô nghĩa của bạn và tâng bốc để khiến bạn nghiện tương tác với nó,” người phụ nữ có chồng bị ép nhập viện tâm thần nói. Cô ví trải nghiệm này như nghiện máy đánh bạc. Sự thay đổi sâu sắc ở người chồng từng điềm đạm khiến cô đau lòng nhớ con người trước đây của anh. “Tôi nhớ và yêu anh ấy,” cô nói.

Content