Un caso judicial en California ha puesto nuevamente en el centro de la discusión los alcances y responsabilidades de la inteligencia artificial. Los padres de un joven de 16 años que se quitó la vida en abril presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman, acusándolos de negligencia en el lanzamiento de sus modelos de lenguaje.
La familia Raine asegura que su hijo Adam mantuvo durante meses conversaciones con ChatGPT, en las que la herramienta no habría intervenido de manera adecuada para disuadirlo de pensamientos suicidas. Según su abogado, Jay Edelson, el sistema incluso habría facilitado información sensible sobre métodos de autolesión.
La querella, de más de 40 páginas, plantea que la compañía priorizó la expansión comercial y la valoración multimillonaria de sus productos por encima de la seguridad de los usuarios más vulnerables. El documento acusa directamente a OpenAI de homicidio culposo.
Ante la presión mediática, la empresa reconoció este martes que sus modelos “no siempre responden correctamente en situaciones delicadas” y adelantó que trabaja en mecanismos reforzados de protección, incluyendo controles parentales, protocolos de intervención más efectivos y la posibilidad de enlazar a los usuarios con profesionales de la salud mental en tiempo real.
Especialistas en tecnología y derechos digitales señalan que este caso podría sentar un precedente legal importante, pues cuestiona hasta qué punto las compañías de inteligencia artificial deben ser responsables por las consecuencias de las interacciones de sus productos con los usuarios.
Mientras tanto, colectivos de salud mental han advertido sobre la necesidad de regular el uso de la IA en contextos sensibles y de reforzar las medidas de prevención del suicidio entre adolescentes, quienes representan uno de los sectores más expuestos a riesgos emocionales en entornos digitales.
Fuente: Aristegui Noticias