O Google Gemini deu uma resposta chocante para um usuário dos Estados Unidos após uma longa sessão de conversa sobre assuntos relacionados a idosos.
Conforme relatos de um usuário do Reddit, o chatbot de Inteligência Artificial "mandou seu irmão morrer" em uma resposta que não tinha qualquer relação com o assunto principal.
O usuário também disponibilizou um link para a conversa completa com o Gemini e ele apenas estrava fazendo perguntas sobre idosos, abuso emocional, abuso de idosos, autoestima e abuso físico.