La inteligencia artificial, como tantas tecnologías antes, nos ha traído muchas posibilidades técnicas maravillosas, desarrollos de gran beneficio para la humanidad y la oportunidad de resolver problemas que antes eran imposibles. Pero también supone nuevos desafíos, nuevos problemas y algunas consecuencias más que indeseadas. Algunos malos resultados son inevitables, pero muchos tienen que ver con nuestra impericia y el apuro de las empresas por lanzar al mercado más productos.
OpenAI ha señalado que está refinando sus planes para modificar el modo en que ChatGPT maneja situaciones sensibles. En un mensaje publicado este martes afirmó: “Seguiremos mejorando, guiados por nuestros expertos y asentados sobre la responsabilidad que le debemos a la gente que usa nuestros productos. Esperamos que otros se nos unan y ayuden a que esta tecnología proteja a los más vulnerables”.
Más allá de toda protección
Lamentablemente razones de fuerza mayor han impuesto esta agenda. Ese mismo martes la familia de Adam Raine, un joven de 16 años que se había suicidado recientemente, acusó a la compañía por el papel que el ChatGPT había tenido en el hecho.
La familia señala que la IA ayudó a su hijo a explorar opciones para el suicidio. OpenAI sostiene que el chatbot ha sido entrenado para que en esos casos le pida a los usuarios que busquen ayuda. Sin emnargo, la empresa admite que luego de una gran cantidad de mensajes durante un largo periodo de tiempo el sistema puede ir contra los mecanismos de seguridad impuestos.
Como hemos señalado en otro artículo reciente, este problema está relacionado con el modo en que funcionan las IA y el hecho de que no entienden verdaderamente lo que dicen.
Antes que sea tarde
OpenAI está trabajando en una actualización para GPT-5 que tiene como objetivo que el chatbot adopte estrategias de disuasión durante este tipo de conversaciones. También espera encontrar nuevos mecanismos para conectar a las personas afectadas por este tipo de impulsos, o algún otro problema psicológico, con terapeutas profesionales.