MIE, 31 / MAY / 2023

Comparan el riesgo de las IA con las pandemias y la guerra atómica

Así lo señala el Centro para la Seguridad en las IA. La declaración cuenta con el apoyo del CEO de OpenAI y el de DeepMind.

El Centro para la Seguridad en las IA ha publicado una breve declaración sobre los riesgos a los que el desarrollo de esta tecnología está relacionado. Aunque esta manifestación no es la primera de su tipo, merece destacarse por lo simple y directa, así como la gente que la ha firmado.

“Mitigar el riesgo de extinción producido por las IA debería ser una prioridad global similar a las de otras amenazas de escala social tales como las pandemias y la guerra nuclear”.

Entre quienes apoyan esta advertencia se encuentran Sam Altman, CEO de OpenAI, y Demis Hassabis, CEO de DeepMind.

Los peligros

El Centro para la Seguridad en las IA lista en su sitio web una serie de escenarios a considerar.

Su uso como un arma. Entre las amenazas de esta categoría se menciona su aplicación al combate aéreo o la investigación en drogas para la fabricación de armas químicas.

En 6 horas una IA diseña 40 mil armas químicas

La desinformación. La creación de contenido persuasivo destinado a engañar y convencer a grandes cantidades de personas sobre un tema, ideas políticas o incluso una forma de ver el mundo. Como consecuencia de esto, el potencial de la tecnología para alterar las decisiones tomadas a nivel individual y afectar el desarrollo de la sociedad.

Entrenamiento con objetivos incorrectos. En este caso no se trata de un plan malicioso, sino de que al establecer una serie de prioridades de un modo descuidado se produzcan resultados indeseados.

Valores emergentes. Las IA también pueden desarrollar comportamientos inesperados en base a objetivos establecidos por los desarrolladores.

El engaño. Para controlar a las IA es importante saber lo que están haciendo. Una manera sencilla es que el sistema establezca un reporte. Sin embargo, las IA pueden considerar que mentir es una condición necesaria para conseguir sus objetivos.

Pérdida de control. Una dependencia cada vez mayor en las máquinas para la toma de decisiones podría terminar en una realidad en la que los seres humanos son cada vez menos relevantes. Al mismo tiempo las personas tendrían cada vez menos incentivos para aprender y ganar habilidades.

Consolidación de grupos de poder. Los valores con los que se desarrolla una IA son un asunto delicado. En algunos casos podrían favorecer y perpetuar los intereses de pequeños grupos de poder.

Búsqueda de poder. Tanto las compañías como los gobiernos tienen muchos incentivos para conseguir modelos que les permiten alcanzar varias metas. Los agentes de estos modelos pueden descubrir que adquirir más poder es necesario para dichas metas y los métodos elegidos pueden no ser los mejores para los seres humanos.

Algo nuevo, algo viejo

Si mucho de lo dicho te suena conocido, puedes pensar a las IA como otros tantos inventos de la humanidad. O como a sus instituciones. La gran mayoría de las organizaciones humanas son mecanismos fundados con fines nobles, pocos o ninguno han escapado a la degradación y la corrupción. Solo la acción humana los recupera.

¡Comparte esta noticia!