Por motivos de seguridad Samsung le había prohibido a sus empleados utilizar los servicios de ChatGPT. Esa restricción fue eliminada el 11 de marzo, posiblemente bajo algunas advertencias e indicaciones para el uso de la herramienta.
Hace unos días datos sensibles sobre varios desarrollos, incluyendo semiconductores, se filtraron a través del servicio.
Mal uso
En un caso los empleados de Samsung copiaron un código fuente de un semiconductor con el que habían tenido problemas. Luego le pidieron a ChatGPT que les dijera como solucionar las dificultades que tenían.
Otro empleado hizo lo mismo con un código utilizado para identificar equipo defectuoso. También hubo otro que tomó grabaciones de una reunión de trabajo y pidió que la IA generara un resumen.
Para evitar más errores humanos de este tipo Samsung ha limitado la información que se puede enviar a ChatGPT a unos 1024 bytes por pregunta.
Aunque imprudentes, las acciones de los empleados se condicen con la lógica de la herramienta. Utilizaron al bot para ahorrar tiempo en sus tareas.
ChatGPT nunca olvida
Es importante señalar que el servicio aclara que las conversaciones que se mantienen con la inteligencia artificial pueden ser examinadas por los entrenadores para mejorar el sistema. Lo que implica que las interacciones son guardadas. Por defecto los usuarios de ChatGPT comparten sus datos, si quieren eliminar esta posibilidad deben realizar un cambio en la configuración de la cuenta.
El sistema no tiene la capacidad de eliminar conversaciones o consignas específicas de una cuenta. La única manera de hacerlo es eliminar la cuenta.