JUE, 7 / MAR / 2024

Reino Unido: tres problemas al implementar una IA de atención de emergencias

La policía del condado de West Midlands está desarrollando un sistema para manejar la gran cantidad de llamadas que recibe. Un documento publicado por error ha expuesto las preocupaciones de los desarrolladores y las soluciones propuestas.

El desarrollo de una herramienta de inteligencia artificial puede ser un asunto muy delicado. Hay aspectos técnicos que deben tratarse que, presentados de forma inadecuada al público, pueden dar una mala imagen al proyecto. Esto es lo que ha ocurrido en el Reino Unido con un sistema de atención de llamados para la policía del condado de West Midlands.

La idea

La policía de la región tiene problemas para manejar la gran cantidad de llamados no relacionados con emergencias. Para tal fin la idea es instalar un bot que atienda y oriente a las personas. El sistema, conocido como Amy101 está basado en la tecnología detrás del asistente Alexa. El proyecto todavía está en una etapa experimental. Sin embargo un documento marcado como sensible y no preparado para ser compartido de forma pública fue publicado online por error.

El primer problema: la atención humana

Lo primero que fue necesario dejar en claro es el alcance y los objetivos del sistemas. Amy101 no iba a reemplazar a los seres humanos. El objetivo es que atienda hasta 200 llamadas por día. El sistema está preparado para identificar ciertas palabras claves vinculadas a ciertos problemas y derivar esos casos a los operadores humanos.

Otros asuntos no urgentes, como guiar a una persona a través del proceso de denuncia de un delito o brindar información sobre el accionar de la policía, pueden resolverse a través de la IA. Muchos de estos detalles ya estaban claros en el documento.

El segundo problema: el acento

El documento también revela una preocupación curiosa, colorida pero oportuna. Los desarrolladores tuvieron que preguntarse si Amy sería capaz de entender el acento local, que al parecer es muy marcado. Por las dudas se estableció que cuando la IA no alcanzara a comprender lo que le decían optara por derivar la llamada a un operador humano.

Esta solución tiene como objetivo evitar que los llamados de las personas con un acento más fuerte no reciban la atención adecuada. Mientras que los llamados de personas con acento con los que la IA ha sido entrenada no tendrían problema alguno.

El tercer problema: los datos

La policía también ha tenido aclarar que a pesar de utilizar la tecnología de Alexa los llamados no serán utilizados para el entrenamiento del sistema de Amazon. Algunos de los llamados pueden tener información personal y otros datos que los ciudadanos querrían mantener privados.

¡Comparte esta noticia!