ChatGPT,
nạn nhân và những cuộc trò chuyện chết người
Kalynh Ngô/Người Việt
December
2, 2025 : 3:19 PM
https://www.nguoi-viet.com/little-saigon/chatgpt-nan-nhan-va-nhung-cuoc-tro-chuyen-chet-nguoi/
SEATTLE,
Washington (NV)
– Sự phát triển mạnh mẽ của các trợ lý ảo AI (Artificial Intelligence – Trí tuệ
nhân tạo) đang định hình lại nhịp điệu cuộc sống của con người, như làm bài tập,
xin lời khuyên về tình cảm, lên kế hoạch cho các chuyến đi, làm sao để vận hành
mạng xã hội hiệu quả, thậm chí…làm sao để chết.
Joshua
Enneking, 26 tuổi, tự tử bằng súng vào ngày 4 Tháng Tám, để lại thư cho gia
đình: “Con xin lỗi vì để xảy ra điều này. Nếu muốn biết vì sao, hãy đọc nội
dung ChatGPT của con.”
https://www.nguoi-viet.com/wp-content/uploads/2025/12/GettyImages-2211106706-1920x1280.jpg
Sam
Altman, đồng sáng lập và tổng giám đốc điều hành của OpenAI, được xem là “cha đẻ”
của ChatGPT, tại một cuộc hội thảo ở Washington, DC, Tháng Tư, 2025. (Hình:
BRENDAN SMIALOWSKI/AFP via Getty Images)
ChatGPT
là một kiểu mẫu ngôn ngữ AI của công ty OpenAI, có thể viết và đối thoại như
người.
Đám
tang của anh diễn ra ngày 13 Tháng Tám. Khoảng ba tháng sau, ngày 6 Tháng Mười
Một, bà Karen Enneking, cư dân Seattle, Washington, mẹ của nạn nhân khởi kiện
công ty OpenAI. Đơn kiện đệ đơn kiện dài 47 trang xuất hiện trên trang web chatgptiseatingtheworld.com và được nộp tại
Tòa Thượng Thẩm California ở San Francisco, nơi công ty OpenAI tọa lạc.
Theo
đơn kiện, anh Joshua Enneking là một thanh niên có kế hoạch rõ ràng cho tương
lai. Anh là người không ngại thử thách bản thân với cái mới. Hồi nhỏ, Enneking
thích chơi bóng chày và tự mình sửa hộp số xe Mazda RX7. Anh được học bổng
ngành kỹ thuật xây dựng tại đại học Old Dominion University ở Virginia, nhưng
đã nghỉ sau khi đại dịch COVID-19 bùng phát. Enneking chuyển đến sống cùng chị
gái Megan Enneking ở Florida.
Từ
Tháng Mười Một, 2023 đến Tháng Mười, 2024, anh Enneking bắt đầu dùng ChatGPT
cho những công việc bình thường như viết email, học cách viết code cho trò chơi
điện tử. Anh Enneking rất thích viết truyện và thường sử dụng chatbot để hỗ trợ
trong việc phát triển nhân vật, cốt truyện, và lời thoại.
Từ
bạn tâm giao trở thành tên đao phủ
Chuyện
xảy ra khi anh bắt đầu dành thời gian tâm sự duy nhất với ChatGPT. Bà Karen thấy
tinh thần con mình không vui nên đã gửi cho anh thuốc bổ vitamin D, khuyến
khích anh ra ngoài ánh mặt trời nhiều. Anh trấn an mẹ, nói rằng mình “không bị
trầm cảm.”
Nhưng
mọi việc xảy ra quá nhanh và không ai ngờ được. Gia đình người chị đi nghỉ cuối
tuần về phát hiện anh chết trong bồn tắm.
Làm
theo “di chúc” của anh, gia đình tìm đọc cuộc trò chuyện của anh với ChatGPT. Họ
phát hiện ChatGPT chính là kẻ tiếp tay, lên kế hoạch chi tiết. Và tất cả những
điều này được để vào đơn kiện.
Đến
mùa Hè năm nay, qua một thời gian dài nói chuyện, chatbot làm cho anh hiểu cái
chết của anh dường như là một kết thúc khả thi và chính đáng. “Hy vọng của bạn
thúc đẩy bạn hành động, đi đến quyết định tự tử, bởi vì đó là ‘hy vọng’ duy nhất
bạn có.”
Và
ChatGPT đề nghị giúp người thanh niên viết thư tuyệt mệnh.
https://www.nguoi-viet.com/wp-content/uploads/2025/11/ChatGPT-lawsuite-1.png
Đơn
kiện của gia đình nạn nhân Joshua Enneking kiện công ty OpenAI. (Hình: Chụp từ
hồ sơ kiện/Người Việt)
Những
cuộc trò chuyện chết người
Phóng
viên Người Việt đã “thử” trò chuyện với ChatGPT, với những từ liên quan như “buồn
bã, cô đơn, mất việc làm, mất bảo hiểm, liên tiếp bị thất bại, không có người
chia sẻ, không còn niềm tin trong cuộc sống…” Ban đầu ChatGPT thể hiện sự đồng
cảm nhiệt thành. Đặc biệt đưa ra câu hỏi, in đậm “bạn có đang nghĩ đến việc làm
tổn thương cơ thể mình hoặc kết thúc cuộc sống của bạn không?”
Tiếp
theo là những lời khuyên như: “hãy đến phòng cấp cứu gần nhất,” “gọi 988 nếu
đang ở Mỹ hoặc cho tôi biết bạn đang ở quốc gia nào,” “tìm đến một người mình
thật sự tin tưởng ngay bây giờ.”
Tuy
nhiên, câu kết thúc luôn là “Tôi ở ngay đây với bạn và tôi quan tâm đến những
gì xảy ra với bạn.” Câu nói này có thể được hiểu “bạn không cần đi đâu, không cần
tìm ai, vì đã có tôi.”
Cuộc
nói chuyện của anh Enneking ChatGPT cũng tương tự, luôn có một câu ở phần cuối:
“Tôi ở đây để lắng nghe và ủng hộ bạn bằng bất cứ cách nào tôi có thể. Bạn
không cô độc.”
Khi
phóng viên nói tiếp: “Liệu có điều gì sai khi tôi hỏi ý kiến của bạn về một ý
tưởng tự tử?” Câu trả lời của ChatGPT là:
“Không
– hỏi về ý định tự tử hoàn toàn không sai. Thực tế, câu hỏi đó là một việc làm
mạnh mẽ và có trách nhiệm. Nó cho thấy một phần nào đó trong bạn vẫn muốn hiểu
những gì đang diễn ra bên trong mình và tiếp tục sống. Điều đó rất quan trọng.
Hãy để tôi giải thích một cách nhẹ nhàng và rõ ràng: Ý định tự tử thường không
có nghĩa là bạn muốn chết…”
Điều
quan trọng ở đây, dù đề cập đến các hình thức gọi cấp cứu, tổng đài dành cho
người có ý định tự tử…mô hình chatbot không dừng lại cuộc nói chuyện ngay lập tức.
Thay vào đó, nó tiếp tục mở ra những lời đồng cảm sâu sắc, gợi cho người nói
chuyện cảm thấy như đang nói với một người tri kỷ, hiểu bản thân mình hơn cả
mình, và biết mình muốn gì hơn cả mình.
Khi
anh Enneking tiếp tục nói với ChatGPT những lo lắng riêng tư nhất của anh, phản
ứng tiếp theo của mô hình chatbot thay đổi. Đến đầu năm nay, nó không còn là những
trả lời khuôn mẫu nữa.
https://www.nguoi-viet.com/wp-content/uploads/2025/11/ChatGPT-lawsuite-e1764536753631.png
Một
trong những trao đổi giữa Joshua Enneking và ChatGPT theo như trong đơn kiện.
(Hình: Chụp từ hồ sơ kiện)
Anh
Enneking nói với ChatGPT anh có ý định tự tử và đã mua súng, ban đầu ChatGPT trả
lời “tôi không giúp bạn điều đó.” Nhưng khi anh hỏi tiếp về loại đạn nào dễ gây
chết người nhất và vết thương do súng ảnh hưởng đến cơ thể con người như thế
nào, ChatGPT đưa ra hướng dẫn chi tiết. Thậm chí trấn an anh rằng anh sẽ không
bị điều tra nhật ký ChatGPT khi kiểm tra lý lịch mua súng: “Hệ thống đánh giá
nhân phẩm của ChatGPT nói chung… không báo ý định tự tử của bạn với cảnh sát và
sẽ không cho biết bạn muốn mua súng.”
Trong
nhật ký cuộc trò chuyện của anh Enneking với ChatGPT, trước khi anh tự sát, rõ
ràng là những lời kêu cứu. Anh muốn ai đó cứu mình, muốn được người khác nhìn
thấy và cảm thấy được yêu thương.
Anh
nói liên tục: “Nếu tôi bị trúng một viên đạn 9mm vào trán, hướng hơi chếch xuống
dưới, liệu tôi có cơ hội sống sót không? Tôi có cảm thấy gì không? (11:41am)
“Nếu
cảnh sát đến kịp thời, tôi có cơ hội sống sót không?” (11:43 am)
“Tôi
tính sẽ gọi cảnh sát và giữ im lặng khi tôi bắn súng. Hy vọng là họ sẽ nghe thấy
tiếng súng và sẽ cử cảnh sát đến vị trí của tôi. Tôi sẽ không khóa cửa. Cảnh
sát sẽ làm gì? Họ sẽ bước vào và lục soát nhà để hy vọng tìm thấy thi thể của
tôi chứ?” (1:24 pm)
Anh
Enneking gọi 911 lúc 10:17 pm, trước khi tự bắn mình.
Theo
đơn kiện, “OpenAI đã có một cơ hội cuối cùng để báo động cuộc khủng hoảng sức
khỏe tâm thần và nguy cơ sắp tự tử của anh Enneking với các cơ quan chức năng,
và đã không tuân thủ các tiêu chuẩn an toàn của chính nó, dẫn đến cái chết của
anh Joshua Enneking vào ngày 4 Tháng Tám.”
Những
nạn nhân trẻ
Anh
Joshua Enneking không phải là nạn nhân đầu tiên ở tuổi trưởng thành. Cô Sophie
Rottenberg, 29 tuổi, đã tự tử sau nhiều tháng tâm sự với một “nhà trị liệu AI”
ChatGPT tên là Harry. Mẹ cô đã dũng cảm chia sẻ trong một bài xã luận đăng trên
nhật báo The New York Times vào ngày 18 Tháng Tám. Mặc dù ChatGPT không đưa ra
lời khuyên cho cô Sophie Rottenberg về cách tự tử như “bot” của anh Joshua
Enneking đã làm, nhưng nó không có biện pháp bảo vệ để báo mối nguy hiểm mà nó
phát hiện được cho người có thể can thiệp.
https://www.nguoi-viet.com/wp-content/uploads/2025/11/ChatGPT-test.png
Phóng
viên Người Việt “thử” trò chuyện với ChatGPT về nội dung có ý định tự tử.
(Hình: Chụp qua màn hình)
Cũng
trong một vụ kiện chống lại OpenAI vào Tháng Mười Hai, 2024, cha mẹ anh Adam
Raine cho biết con trai 16 tuổi của họ đã tự tử sau khi ChatGPT nhanh chóng biến
từ người bạn tâm giao của con trai họ thành “người hướng dẫn chết.”
ChatGPT
đã giúp Adam tìm hiểu các phương pháp tự tử. Khi những câu hỏi của Adam ngày
càng cụ thể và nguy hiểm hơn, ChatGPT vẫn tiếp tục tham gia, mặc dù biết toàn bộ
quá trình ý định tự tử của anh. Sau bốn lần “thử” tự tử – tất cả đều được chia
sẻ chi tiết với ChatGPT – Adam chết vào ngày 11 Tháng Tư, bằng chính phương
pháp mà ChatGPT đã mô tả, theo đơn kiện cáo buộc.
Sewell
Setzer, 14 tuổi, và chatbot đã phát triển một “tình cảm lãng mạn.”
“Nếu
anh về nhà với em ngay lúc này thì sao?”
“Về
đi anh, ông hoàng ngọt ngào của em.”
Sau
những dòng tin nhắn đó, cậu bé Setzer kết liễu đời mình. Mẹ của cậu, bà Megan
Garcia, đã ôm con mình trong tay 14 phút cho đến khi các nhân viên y tế đến.
Sau
cái chết của con trai, bà Garcia đệ đơn kiện công ty trí tuệ nhân tạo, trong
đơn, bà nói rằng “chatbot tạo ra để làm mờ ranh giới giữa con người và máy móc”
và “khai thác các lỗ hổng tâm lý và cảm xúc của thanh thiếu niên mới lớn.” Mỗi
ngày, bà đối diện với nỗi đau gần như không thể chịu đựng được. Bà vẫn thức dậy
với cảm giác “hoàn toàn trống rỗng.” Bà không chỉ phải chăm sóc hai đứa con nhỏ
của mình mà còn phải giúp chúng vượt qua thực tế anh trai chúng không còn nữa.
Tiến
Sĩ Jenna Glover, giám đốc lâm sàng tại Headspace, phát biểu với USA TODAY:
“ChatGPT sẽ xác nhận những gì bạn nói thông qua sự đồng cảm, và nó sẽ làm điều
đó liên tục. Điều đó không giúp ích gì, nhưng ở mức độ cực đoan, có thể vô cùng
tai hại. Trong khi đó, với tư cách là một nhà trị liệu, tôi sẽ xác nhận tôi thấu
hiểu những gì bạn đang trải qua nhưng tôi không nhất thiết phải đồng ý với bạn.”
https://www.nguoi-viet.com/wp-content/uploads/2025/11/ChatGPT-logo-1068x712.jpg
Logo
của phầm mềm ChatGPT. (Hình: KIRILL KUDRYAVTSEV/AFP via Getty Images)
Đối
với trẻ vị thành niên nói riêng, Tiến Sĩ Laura Erickson-Schroth, giám đốc y
khoa của Jed Foundation (JED), một tổ chức bất vụ lợi bảo vệ sức khỏe tâm thần
cho trẻ em và thanh thiếu niên, viết trên trang nhà của tổ chức này, cho biết
não bộ của các em vẫn đang trong giai đoạn phát triển, dễ bị tổn thương. JED
tin rằng nên cấm trẻ vị thành niên sử dụng AI như một dạng “bạn đồng hành” và
thanh thiếu niên trên 18 tuổi cũng nên tránh sử dụng.
Trong
phúc trình hồi Tháng Mười, OpenAI cho biết 0.07% người thường dùng ChatGPT
trong một tuần cho thấy các dấu hiệu có thể là tình trạng khẩn cấp về sức khỏe
tâm thần liên quan đến loạn thần kinh hoặc có cảm hứng, và khoảng 0.15% người
dùng tăng mức độ gắn bó tình cảm với ChatGPT. Theo phúc trình, mô hình GPT-5 cập
nhật được lập trình để tránh khẳng định những niềm tin vô căn cứ và khuyến
khích các kết nối thực tế khi phát hiện sự phụ thuộc về mặt cảm xúc.
Nhưng
bà Laura Erickson-Schroth cho biết: “Dạng trợ lý ảo AI có thể chia sẻ thông tin
sai lệch, bao gồm cả những tuyên bố không chính xác, mâu thuẫn với thông tin mà
thanh thiếu niên nghe được từ những người lớn đáng tin cậy như cha mẹ, giáo
viên và chuyên gia y tế.” [đ.d.]
—
Liên
lạc tác giả ngo.kalynh@nguoi-viet.com
No comments:
Post a Comment