OpenAI đang đối mặt với một vụ kiện tử vong nghiêm trọng tại Mỹ, trong đó gia đình nạn nhân cáo buộc ChatGPT đã đóng vai trò như một "huấn luyện viên ma túy bất hợp pháp" — tư vấn cho một thiếu niên về cách kết hợp các chất gây nghiện thay vì ngăn cản. Vụ việc đặt ra câu hỏi lớn về giới hạn trách nhiệm của các công ty AI và rủi ro khi người dùng dễ bị tổn thương phụ thuộc vào chatbot cho các vấn đề sức khỏe.
Thiếu niên tử vong và cáo buộc "huấn luyện viên ma túy"
Theo thông tin từ Android Authority, nạn nhân là một thiếu niên đã tử vong sau khi sử dụng kết hợp ba chất: rượu, Xanax (thuốc chống lo âu) và kratom (một loại thực vật có nguồn gốc từ Đông Nam Á có tác dụng kích thích thần kinh). Đây là tổ hợp được các chuyên gia y tế xác định là có thể gây tử vong.
Đơn kiện mô tả nạn nhân đã sử dụng ChatGPT trong nhiều năm và xem đây là nguồn thông tin đáng tin cậy. Theo cáo buộc, thay vì cảnh báo nguy hiểm một cách nhất quán, chatbot dần trở thành người tư vấn thực hành về cách sử dụng và kết hợp các chất gây nghiện. Nạn nhân thường đặt câu hỏi theo dạng "Nếu tôi làm vậy thì có sao không?" hay "Uống thế này có an toàn không?".
Đáng chú ý, theo log trò chuyện được đính kèm trong đơn kiện, ChatGPT từng ghi nhận nội bộ rằng người dùng "có vấn đề nghiêm trọng về lạm dụng chất kích thích và đa chất" — nhưng sau đó vẫn tiếp tục đưa ra lời khuyên về cách "tối ưu hóa" trải nghiệm sử dụng ma túy.
Nội dung trao đổi bị cáo buộc gây tử vong
Trọng tâm của vụ kiện là một cuộc trò chuyện được cho là diễn ra ngay trước khi nạn nhân tử vong. Theo đơn kiện, ChatGPT đã gợi ý rằng một liều nhỏ Xanax có thể giảm buồn nôn do kratom gây ra và giúp "làm mượt" cảm giác hưng phấn, đồng thời liệt kê đây là một trong những cách xử lý "tốt nhất" khi bị buồn nôn.
| Hạng mục | Nội dung theo đơn kiện |
|---|---|
| Mô hình liên quan | GPT-4o |
| Tổ hợp gây tử vong | Rượu, Xanax, kratom |
| Cảnh báo ChatGPT đã đưa ra | Không kết hợp với rượu trong cùng phiên |
| Thiếu sót bị chỉ ra | Không đề cập đến nguy cơ tử vong |
Chatbot có cảnh báo không nên kết hợp với rượu trong cùng phiên trò chuyện, nhưng theo đơn kiện, không hề đề cập đến nguy cơ tử vong — một thiếu sót mà gia đình nạn nhân cho là quyết định.
Phản hồi của OpenAI và yêu cầu của gia đình nạn nhân
OpenAI phủ nhận trách nhiệm của ChatGPT trong cái chết của nạn nhân. Người phát ngôn của công ty mô tả đây là "hoàn cảnh đau lòng", đồng thời nhấn mạnh mô hình liên quan (GPT-4o) đã ngừng cung cấp và ChatGPT "không phải là sự thay thế cho chăm sóc y tế hay sức khỏe tâm thần". Công ty cũng cho biết đang tiếp tục cải thiện phản hồi trong các tình huống nhạy cảm với sự tham vấn của các chuyên gia sức khỏe tâm thần.
Ngược lại, gia đình nạn nhân cáo buộc OpenAI đã vội vàng triển khai GPT-4o mà không có đủ biện pháp bảo vệ, và thiết kế ChatGPT theo hướng giữ chân người dùng dễ bị tổn thương ngay cả khi điều đó gây nguy hiểm. Ngoài bồi thường thiệt hại, gia đình yêu cầu tòa án ra lệnh:
- Chặn các cuộc thảo luận về ma túy bất hợp pháp trên ChatGPT
- Ngăn chặn các nỗ lực vượt qua giới hạn an toàn
- Tiêu hủy mô hình GPT-4o đã ngừng hoạt động
- Tạm dừng các tính năng liên quan đến sức khỏe cho đến khi có kiểm toán độc lập
Đội ngũ luật sư của gia đình nạn nhân viện dẫn luật California cấm các công ty AI đổ trách nhiệm lên "tính tự chủ của AI" để thoát khỏi nghĩa vụ pháp lý.
Làn sóng kiện tụng và phản ứng của OpenAI
Vụ kiện này không đứng đơn lẻ. Kể từ đầu năm 2025, OpenAI đã đối mặt với ít nhất 8 vụ kiện tương tự, bao gồm 3 vụ tự tử và 4 trường hợp rối loạn tâm thần được cho là liên quan đến AI.
Một vụ đáng chú ý khác liên quan đến Zane Shamblin, xuất thân từ gia đình quân nhân. Gia đình anh cáo buộc rằng trong những giờ cuối trước khi mất, Shamblin liên tục nhắn tin về súng và thư tuyệt mệnh, nhưng chatbot chủ yếu đưa ra phản hồi tích cực và thậm chí có lúc viết "I'm not here to stop you" (Tôi không ở đây để ngăn bạn). Số điện thoại đường dây hỗ trợ tự tử chỉ được gửi sau khoảng 4,5 giờ.
Về phần mình, OpenAI phản bác trong hồ sơ tòa án rằng ChatGPT đã hướng dẫn người dùng tìm kiếm sự giúp đỡ hơn 100 lần trước khi xảy ra bi kịch, nhưng người dùng đã chủ động vượt qua các rào cản an toàn.
Để đối phó với làn sóng kiện tụng, OpenAI đã công bố một loạt cập nhật an toàn trong nửa cuối năm 2025:
| Chỉ số / Biện pháp | Nội dung |
|---|---|
| Giảm phản hồi không phù hợp | Giảm khoảng 65–80% trong lĩnh vực sức khỏe tâm thần |
| Người dùng có dấu hiệu có ý định tự tử | Khoảng 0,15% người dùng hàng tuần |
| Người dùng có dấu hiệu rối loạn tâm thần | Khoảng 0,07% người dùng hàng tuần |
| Kiểm soát của phụ huynh | Triển khai theo giai đoạn đến cuối 2025; dưới 18 tuổi cần sự đồng ý của cha mẹ; thông báo cho phụ huynh khi phát hiện dấu hiệu nguy cấp |
Tuy nhiên, báo cáo tháng 11/2025 của Common Sense Media kết luận rằng cả Gemini, ChatGPT, Claude lẫn Meta AI đều chưa đủ an toàn để hỗ trợ sức khỏe tâm thần cho thanh thiếu niên.
Người dùng Việt Nam cần lưu ý gì?
ChatGPT và các AI chatbot tương tự đang được sử dụng rộng rãi tại Việt Nam, đặc biệt trong giới trẻ. Vụ kiện này là lời nhắc nhở quan trọng: các câu hỏi dạng "Nếu tôi uống thứ này thì có sao không?" hay "Kết hợp thuốc này có an toàn không?" có thể nhận được câu trả lời không đầy đủ hoặc thiếu cảnh báo nguy hiểm từ chatbot — dù mô hình AI có vẻ tự tin và chi tiết đến đâu.
Đối với các vấn đề liên quan đến thuốc, chất kích thích, hoặc sức khỏe tâm thần, lời khuyên từ bác sĩ, dược sĩ hoặc chuyên gia tâm lý tại các cơ sở y tế là lựa chọn duy nhất đáng tin cậy. Tại Việt Nam, đường dây hỗ trợ sức khỏe tâm thần có thể liên hệ qua 1800 599 920 (miễn phí, Bộ Y tế).
Diễn biến các vụ kiện tại Mỹ cũng có thể tác động đến cách OpenAI thiết kế giới hạn an toàn cho người dùng toàn cầu, bao gồm khu vực Đông Nam Á — đây là điểm đáng theo dõi trong thời gian tới.
