Etica para los desarrolladores de IA

Uno de los temas que más interés despierta en el sector del contact center es la Inteligencia Artificial, un básico actual para mejorar la experiencia del cliente, abaratar costes y mejorar en eficiencia y eficacia.

La IA ha llegado para quedarse y cada vez tiene mayor autonomía en el sector contact center. Si a corto plazo sigue primando el lenguaje natural y la voz (voicebots), a medio y largo plazo se desarrollará la videollamada de agentes apoyados en IA. Este binomio artificial y humano aporta un valor esencial ya que es una inteligencia aumentada, sin olvidar que la IA debe ofrecer personalización al cliente y gestión de las relaciones.

Debido al gran auge de la tecnología, un gran número de compañías del sector está apostando por incluir la ética en cada uno de los procesos de desarrollo artificial. Según el informe “Impulso, madurez y modelos de éxito de la Inteligencia Artificial”, elaborado por SAS, “el 70% de las grandes empresas mundiales que actualmente utilizan IA forman en ética a sus especialistas en la materia” y más del 63% de las empresas internacionales consultadas cuenta con comités de ética para revisar el buen uso de la misma.

Estos datos son muy significativos si tenemos en cuenta que cuando se llevan a cabo procesos digitales la parte humana tiende a no comentarse. Resulta gratificante que el 92% de las empresas “consideran esencial capacitar a sus tecnólogos en ética. Es más, la mayoría reconocen la fuerte conexión entre el uso de la analítica y el éxito de la IA”.

Los resultados del estudio no extrañan si tenemos en cuenta que el Parlamento Europeo y algunos exponentes de la IA mundial han reflexionado sobre el tema. El Parlamento Europeo, tras una propuesta de borrador el pasado junio de 2016 y un informe razonado en febrero de 2017, ha aprobado un informe sobre Robótica que recoge un Código Ético de Conducta. Éste establece “un marco de guía ético para el diseño, producción y uso de los robots”. El objetivo es transmitir la ética a los profesionales desarrolladores y usuarios de la IA.

Tal y como indica el informe, también es remarcable distinguir la ética en la robótica de la ética en las máquinas. Ésta última se centra en los principios morales que los robots deben seguir. Existen varios recogidos en la resolución que contemplan la protección de la dignidad humana, la libertad, la privacidad, la igualdad de acceso y los efectos sociales, entre otros.

 

Supervisión constante

Las políticas de revisión de los resultados obtenidos de forma periódica y regular, sin olvidar la aplicación ética en todo momento, son debidas a la concienciación de las empresas a la hora de evitar o reducir las posibles repercusiones que puede generar un resultado problemático.

Es natural la preocupación de las organizaciones por el impacto de las decisiones impulsadas por la IA en la relación con los clientes, es por eso que aquí la incorporación de la ética juega un papel muy importante.

Por lo tanto, la humanización y la profesionalización de la IA requiere una supervisión que las organizaciones ya han empezado a abordar, éstas deben proporcionar directrices específicas, transparentes, seguras y responsables para evitar imprevistos o problemas que puedan perjudicar a las personas y a los clientes.

 

Seguridad ante todo

Para las empresas del sector contact center la presencia del big data, la automatización de procesos y los proyectos de IA son las bases en las que se asienta el nuevo contact xperience center. Estas bases, puramente tecnológicas, deben estar protegidas con los mejores cánones de seguridad para evitar la intrusión y el robo por parte de hackers que buscan puntos débiles para acceder al core de toda información importante almacenada en los servidores.

Las empresas buscan perfiles con conocimientos y habilidades en seguridad que actúen contra los posibles ataques. Llegados a este punto, un reciente estudio llevado a cabo por HfS Research concluyó que los directivos apoyan la idea de que la IA puede ayudar a mejorar la seguridad de los datos: “El 59% de los encuestados afirmó estar satisfecho con los beneficios de seguridad obtenidos al implementar herramientas cognitivas”.

“La mejora de la seguridad es uno de los beneficios no previstos derivados de los proyectos de tecnología cognitiva”, señala el informe, “ya que muchas herramientas cognitivas cuentan con elementos de seguridad y privacidad incorporados en su diseño. Aún nos estamos acostumbrando al machine learning y a que la IA proporcione inteligencia acerca de las amenazas, su detección y respuesta”.

La reciente nueva RGPD también se posiciona como una oportunidad para utilizar la IA para extrapolar el comportamiento del cliente de forma legal y potenciar la proactividad de las empresas acerca del análisis de los datos.

En definitiva, la IA va a enriquecer los procesos de asesoramiento y personalización, permitirá detectar comportamientos de los clientes para anticipar y emitir propuestas legales que permitan identificar si la empresa se está adaptando de forma personalizada a las necesidades del cliente.