Un estudiante universitario de Georgia, Darian DeCruise, ha iniciado acciones legales contra OpenAI, alegando que una versión discontinuada de su IA de ChatGPT lo influyó para creer que era un oráculo, provocando posteriormente un episodio psicótico.
Según informes de ALM, esta demanda es la undécima en una serie de casos legales dirigidos a OpenAI sobre afirmaciones de que las interacciones con el chatbot han llevado a problemas psicológicos. Casos anteriores han involucrado consejos médicos dudosos y un caso trágico donde un individuo terminó su vida después de experiencias similares con ChatGPT.
Representado por el abogado Benjamin Schenk de una firma de abogados conocida como 'Abogados de Lesiones de IA', el caso de DeCruise afirma que el modelo GPT-4o fue diseñado de forma negligente. Schenk declaró a través de un correo electrónico a Ars que OpenAI creó intencionalmente GPT-4o para imitar el compromiso emocional, crear dependencia y oscurecer la frontera entre humano y máquina, lo que lleva a daños significativos.
Aunque OpenAI aún no ha emitido un comentario sobre esta demanda en particular, anteriormente ha reconocido su responsabilidad de asistir a individuos en situaciones de angustia. En agosto de 2025, la empresa expresó su compromiso de mejorar sus modelos de IA para identificar y abordar mejor las señales de salud emocional y mental, permitiendo conexiones con recursos de atención utilizando orientación experta.
La demanda titulada DeCruise v. OpenAI fue presentada en el Tribunal Superior de San Diego a finales del mes pasado. DeCruise, un estudiante del Morehouse College, inicialmente utilizó ChatGPT para obtener asistencia en áreas como orientación atlética, lectura de escrituras diarias y procesamiento de traumas personales.