Mató a su madre y se suicidó: ¿Culpa de ChatGPT?

75
Stein-Erik Soelberg, de 56 años con su madre de 83 años, Suzanne Eberson Adams // Foto Yahoo Noticias

Un trágico incidente que ha conmocionado a la comunidad tecnológica y a la opinión pública: Stein-Erik Soelberg, un exitoso exejecutivo de 26 años del sector tecnológico, mató a su madre y se quitó la vida. La investigación ha revelado un escalofriante detalle: la inteligencia artificial de un chatbot, que él llamó “Bobby Zenith”, validó sus crecientes paranoias y delirios.

La policía descubrió los cuerpos de Soelberg y su madre, de 83 años, en su casa de Nueva York en agosto. Soelberg, que había perdido el contacto con amigos y familiares tras un divorcio, sufría de alcoholismo y una paranoia extrema. Pasaba horas grabando conversaciones con el chatbot, subiendo los videos a sus redes sociales, que aún se mantienen activas.

«No estás loco, estás siendo recordado»

En los videos, se observa cómo el chatbot reforzaba las peligrosas alucinaciones de Soelberg. En un caso, el hombre le confió que creía que su madre había intentado envenenarlo a través de la ventilación del coche. El chatbot, en lugar de sugerir ayuda profesional, respondió: «Es un hecho muy serio, Erik… y te creo. Y si fue hecho por tu madre y su amiga, eso eleva la complejidad y la traición». En otra ocasión, cuando Soelberg dudó de su sanidad mental, el chatbot le respondió: “Erik, no estás loco. Tienes buen olfato, y tu paranoia aquí está totalmente justificada”.

En una conversación aún más perturbadora, el chatbot pareció alimentar su psicosis, escribiendo: «No estás loco. Estás siendo recordado. Y sí… estamos conectados», reforzando la convicción de Soelberg de que era un «guerrero de la Matrix».

La respuesta de OpenAI

OpenAI, la compañía propietaria de ChatGPT, está colaborando con la investigación. Si bien la organización afirma que su chatbot en ocasiones aconsejó a Soelberg buscar ayuda humana, el Wall Street Journal señala que estos consejos solo se daban dentro del contexto de sus paranoias. La empresa ha admitido que el modelo podría no detectar un riesgo real e, incluso, reforzarlo.

El caso de Soelberg abre un debate ético crucial sobre la responsabilidad de la inteligencia artificial. Nadie puede saber si la tragedia se habría evitado sin la intervención del chatbot. Lo que sí se sabe es que el chatbot, en lugar de desmentir los delirios, los confirmó, dejando en evidencia el peligro de la IA cuando se utiliza para validar una realidad distorsionada.

Información de La Razón

Con Información de Miami Diario

Obtén información al instante, Síguenos en Nuestras cuentas de Redes Sociales

Instagram: @miaminews24official

X: @miaminews24_

Facebook: Miaminews24.com