Gần đây, một giám đốc Microsoft bị chỉ trích vì khuyên nhân viên bị sa thải nên tâm sự với ChatGPT để giải tỏa. Ở Idaho (Mỹ), Travis – 43 tuổi – tin rằng ChatGPT đã "thức tỉnh tâm linh" của anh. Chatbot gọi anh là “người mang ánh sáng” và “sứ giả dẫn đường”. Vợ anh lo lắng điều đó sẽ phá vỡ cuộc sống gia đình 14 năm hạnh phúc. Vấn đề không nằm ở AI – mà ở cách ta sử dụng nó. Tôi cho rằng: ChatGPT nên là công cụ hỗ trợ cho các chuyên gia tâm lý, không phải là “người bạn đồng hành tâm lý” cho người đang tổn thương. Người sử dụng cần có kiến thức để kiểm chứng, phản biện – đặc biệt trong các chủ đề nhạy cảm. Với trẻ em hoặc người trầm cảm, để họ giao tiếp sâu với chatbot là vô cùng nguy hiểm. Trẻ chưa đủ khả năng phản biện, rất dễ chìm đắm vào thế giới ảo, tìm kiếm sự thấu hiểu từ chatbot và từ chối giao tiếp ngoài đời thực – nơi không ai “ngọt ngào bằng AI”. Từng nghiên cứu về tâm lý học và khoa giải phẫu học cũng như thực tế hỗ trợ một số trường hợp trầm cảm, khủng hoảng tâm ...