OpenAI ha dado fin al equipo que se encargaba de evaluar los riesgos a largo plazo de la inteligencia artificial. Algunos de los empleados han sido reasignados a otros equipos, pero otros de notorio perfil han decidido abandonar la empresa.
El grupo había sido formado hace apenas un año. En ese momento la compañía había señalado que, durante los siguientes 4 años, iba a destinar el 20% de su capacidad de cómputo a desarrollar avances científicos y tecnológicos que permitieran controlar y guiar a una IA más inteligente que el ser humano. Entre las figuras más importantes que abandonan la empresa se encuentran Jan Leike y Ilya Sutskever.
Leike y las prioridades de OpenAI
Leike ha señalado que se unió a OpenAI porque pensó que era la mejor empresa para desarrollar la investigación. Pero hace años que se encontró en desacuerdo con las prioridades de la empresa y finalmente la situación llegó a una ruptura. “Durante los últimos meses mi equipo ha navegado contra el viento Algunas veces hemos tenido que luchar por los recursos y se ha vuelto cada vez más difícil realizar la investigación”.
También apuntó: “Desarrollar una máquina más inteligente que un ser humano es una conducta inherentemente peligrosa. OpenAI está tomando una gran responsabilidad en nombre de la humanidad. Pero durante los últimos años la cultura de la seguridad y los procesos ha tomado el asiento trasero y dado lugar a los productos llamativos”.
Sutskever una vez más
Sutskever fue uno de los que votó a favor de la salida de Sam Altman en la junta de directores de OpenAI. En ese momento se acusó al ejecutivo de no compartir toda la información que debía suministrar al organismo supervisor. Sustkever luego cambió de opinión, pero todo parece indicar que su voto y ahora su salida están conectados a cuestiones de seguridad y las prioridades de la empresa.
Según el Wall Street Journal mientras que el encargado de tecnología de la empresa intentaba enfocar el desarrollo en asegurarse que no se produjera daño a los seres humanos, Altman y otros priorizaban el lanzamiento de nueva tecnología.
Sin críticas, hasta ahora
La salida de los ejecutivos coincide con la revelación de una clausula que exigía que los empleados salientes firmaran un acuerdo que les impedía revelar información sobre la empresa o criticarla. En caso de hacerlo perdían sus opciones de acciones de la empresa. OpenAI modificó esa parte del contrato luego de que se diera a conocer. Altman señaló que se sentía avergonzado porque haya existido, pero que nunca se hizo efectiva.