TIC    Datos

¿Qué confianza generan los sistemas de inteligencia artificial?

Con el aumento de la importancia de los datos y la inteligencia artificial se complica la gestión de la confianza

06 JUL. 2018
4 minutos
Verificar la reputación es algo crítico en los sistemas actuales. / Joel Filipe / Unsplash

La confianza en los sistemas de inteligencia artificial es clave y por ello investigadores de la Universidad de Stanford proponen en un paper un algoritmo nuevo para verificar la reputación.

Durante el proyecto se ha realizado un estudio sobre la “resistencia” de la reputación con un modelo de simulación de ataques, tras analizar diferentes tipos de datos históricos, que representan distintas formas de interacción.

Verificar la reputación es algo crítico en los sistemas actuales, por la interrelación de los nodos del sistema de comunicación, lo que obliga a buscar un proceso para mitigar el riesgo. Así, en los sistemas de computación distribuida se implementan diferentes algoritmos, basados en la tecnología blockchain, para comprobar la calidad y veracidad de un nodo en la red.

Así, ante el aumento de la conectividad y de la velocidad de interacción entre los sistemas de inteligencia artificial y las personas, los investigadores han buscado una fórmula para lograr la inteligencia artificial general (AGI) a través de estructuras complejas y propiedades dinámicas que surgen de redes descentralizadas.

Una ruta viable hacia la inteligencia artificial general, que radica en estructuras dinámicas y emergentes en una red descentralizada interactiva. Para ello se necesita un sistema de reputación de alta calidad.

Gestionar la confianza

En este sentido, Eva García San Luis, socia responsable de Análisis de Datos e Inteligencia Artificial de KPMG en España, advierte en la presentación del informe The guardians of Trust de KPMG, que cuando los análisis de datos y la inteligencia artificial “se conviertan en recursos omnipresentes, será ineludible y más difícil gestionar la confianza”.

“Con la rápida adopción de los análisis predictivos, debemos prepararnos ahora para introducir el buen gobierno apropiado de los algoritmos. El buen gobierno de las máquinas debe convertirse en una parte esencial del buen gobierno del conjunto de la organización, y la meta será equilibrar la potencia y el riesgo del análisis de datos con los conocimientos para utilizarlo correctamente”, añade García.

Este estudio subraya que la interrelación entre humanos y máquinas “exige mayores responsabilidades a la alta dirección que a las funciones tecnológicas”. Así, se requiere en las empresas un “buen gobierno proactivo con controles estratégicos y operativos que garantice y mantenga la confianza”.

En un momento en el que la transformación digital está en la estrategia de la mayoría de las empresas tanto la analítica de datos como la gestión de las máquinas se está volviendo tan importante como la gestión de las personas.

Este informe revela que solo el 35% de los directivos confían en el análisis de datos que hace su compañía. El 92% teme el impacto en la reputación y el 62% responsabiliza a la tecnología de los fallos, no a los directivos.