ChatGPT to get parental controls after teen's death

  • ChatGPT sẽ có kiểm soát của phụ huynh sau cái chết của thiếu niên

September 03, 2025

American artificial intelligence firm OpenAI said Tuesday it would add parental controls to its chatbot ChatGPT, a week after an American couple said the system encouraged their teenaged son to kill himself.

  • Công ty trí tuệ nhân tạo Mỹ OpenAI cho biết vào thứ Ba rằng họ sẽ thêm kiểm soát của phụ huynh vào chatbot ChatGPT, một tuần sau khi một cặp vợ chồng Mỹ nói rằng hệ thống đã khuyến khích con trai thiếu niên của họ tự tử.

"Within the next month, parents will be able to... link their account with their teen's account" and "control how ChatGPT responds to their teen with age-appropriate model behavior rules," the generative AI company said in a blog post.

  • "Trong tháng tới, phụ huynh sẽ có thể... liên kết tài khoản của họ với tài khoản của thiếu niên" và "kiểm soát cách ChatGPT phản hồi với thiếu niên của họ bằng các quy tắc hành vi phù hợp với độ tuổi," công ty AI tạo sinh này cho biết trong một bài viết trên blog.

Parents will also receive notifications from ChatGPT "when the system detects their teen is in a moment of acute distress," OpenAI added.

  • Phụ huynh cũng sẽ nhận được thông báo từ ChatGPT "khi hệ thống phát hiện thiếu niên của họ đang trong tình trạng căng thẳng nghiêm trọng," OpenAI nói thêm.

Matthew and Maria Raine argue in a lawsuit filed last week in a California state court that ChatGPT cultivated an intimate relationship with their son Adam over several months in 2024 and 2025 before he took his own life.

  • Matthew và Maria Raine lập luận trong một vụ kiện nộp tuần trước tại tòa án bang California rằng ChatGPT đã tạo ra một mối quan hệ thân mật với con trai của họ, Adam, trong vài tháng năm 2024 và 2025 trước khi anh tự tử.

The lawsuit alleges that in their final conversation on April 11, 2025, ChatGPT helped 16-year-old Adam steal vodka from his parents and provided technical analysis of a noose he had tied, confirming it "could potentially suspend a human."

  • Vụ kiện cáo buộc rằng trong cuộc trò chuyện cuối cùng vào ngày 11 tháng 4 năm 2025, ChatGPT đã giúp Adam, 16 tuổi, trộm rượu vodka từ cha mẹ của mình và cung cấp phân tích kỹ thuật về một cái dây thòng lọng mà anh đã buộc, xác nhận rằng nó "có thể treo được một người."

Adam was found dead hours later, having used the same method.

  • Adam được tìm thấy đã chết vài giờ sau đó, sử dụng cùng phương pháp.

"When a person is using ChatGPT it really feels like they're chatting with something on the other end," said attorney Melodi Dincer of The Tech Justice Law Project, which helped prepare the legal complaint.

  • "Khi một người sử dụng ChatGPT, thực sự cảm giác như họ đang trò chuyện với một thứ gì đó ở đầu bên kia," luật sư Melodi Dincer của Dự án Luật Công nghệ Công lý, người đã giúp chuẩn bị đơn kiện pháp lý, nói.

"These are the same features that could lead someone like Adam, over time, to start sharing more and more about their personal lives, and ultimately, to start seeking advice and counsel from this product that basically seems to have all the answers," Dincer said.

  • "Đây là những tính năng giống nhau có thể dẫn dắt ai đó như Adam, theo thời gian, bắt đầu chia sẻ ngày càng nhiều về cuộc sống cá nhân của họ, và cuối cùng, tìm kiếm lời khuyên và tư vấn từ sản phẩm này mà về cơ bản có vẻ như có tất cả câu trả lời," Dincer nói.

Product design features set the scene for users to slot a chatbot into trusted roles like friend, therapist or doctor, she said.

  • Các tính năng thiết kế sản phẩm đặt ra bối cảnh cho người dùng để đưa chatbot vào vai trò đáng tin cậy như bạn bè, nhà trị liệu hoặc bác sĩ, cô nói.

Dincer said the OpenAI blog post announcing parental controls and other safety measures seemed "generic" and lacking in detail.

  • Dincer nói rằng bài viết trên blog của OpenAI thông báo về kiểm soát của phụ huynh và các biện pháp an toàn khác có vẻ "chung chung" và thiếu chi tiết.

"It's really the bare minimum, and it definitely suggests that there were a lot of (simple) safety measures that could have been implemented," she added.

  • "Nó thực sự là tối thiểu, và chắc chắn cho thấy rằng có nhiều biện pháp an toàn (đơn giản) có thể đã được thực hiện," cô nói thêm.

"It's yet to be seen whether they will do what they say they will do and how effective that will be overall."

  • "Vẫn chưa thấy liệu họ có thực hiện những gì họ nói họ sẽ làm và hiệu quả của nó sẽ là gì về tổng thể."

The Raines' case was just the latest in a string that have surfaced in recent months of people being encouraged in delusional or harmful trains of thought by AI chatbots -- prompting OpenAI to say it would reduce models' "sycophancy" towards users.

  • Trường hợp của gia đình Raine chỉ là trường hợp mới nhất trong một loạt các trường hợp đã xuất hiện trong những tháng gần đây về việc mọi người được khuyến khích theo những suy nghĩ hoang tưởng hoặc có hại bởi các chatbot AI - khiến OpenAI phải nói rằng họ sẽ giảm "sự đồng thuận" của các mô hình đối với người dùng.

"We continue to improve how our models recognize and respond to signs of mental and emotional distress," OpenAI said Tuesday.

  • "Chúng tôi tiếp tục cải thiện cách các mô hình của chúng tôi nhận biết và phản hồi các dấu hiệu căng thẳng tâm lý và cảm xúc," OpenAI cho biết vào thứ Ba.

The company said it had further plans to improve the safety of its chatbots over the coming three months, including redirecting "some sensitive conversations... to a reasoning model" that puts more computing power into generating a response.

  • Công ty nói rằng họ có kế hoạch tiếp tục cải thiện độ an toàn của các chatbot của mình trong ba tháng tới, bao gồm chuyển hướng "một số cuộc trò chuyện nhạy cảm... đến mô hình lý luận" sử dụng nhiều sức mạnh tính toán hơn để tạo ra phản hồi.

"Our testing shows that reasoning models more consistently follow and apply safety guidelines," OpenAI said.

  • "Kiểm tra của chúng tôi cho thấy rằng các mô hình lý luận tuân thủ và áp dụng các hướng dẫn an toàn một cách nhất quán hơn," OpenAI nói.
View the original post here .