TIC    FORO INTELIGENCIA ARTIFICIAL

Una estrategia para construir la España ‘inteligente’

Directivos de IBM, TheLogicValue, Guardio y Grupo CMC piden junto a investigadores del CSIC y la UC3M acceso a datos, educación y una regulación actualizada

E. Mallol / A. Iglesias
08 OCT. 2018
17 minutos

Aún estamos a tiempo de diseñar una estrategia como país para la inteligencia artificial (IA). Pero hay que tener la voluntad de diseñarla, como están haciendo otros, y hay que perfilar dos aspectos clave: la disponibilidad de los datos, deficiente en España, y la regulación de la responsabilidad. Estos fueron los ejes del Foro Innovadores sobre Inteligencia Artificial organizado junto a la Fundación Pons, en el que Javier Valencia, vicepresidente Cloud IBM España, anunció la inminente apertura en Madrid del IBM Cloud Garage ubicado en el Barrabés Growth Space.

El Foro Innovadores en la Tercera Revolución Digital es una iniciativa del suplemento INNOVADORES by Inndux y de la Fundación Pons en el que colaboran el CSIC, PONS IP, el Parque Científico de la Universidad Carlos III de Madrid, Fundación para el Conocimiento madri+d y el Consejo de Fundaciones Para la Ciencia. Su objetivo es abordar los desafíos que plantea la actual transformación tecnológica en un espacio de diálogo en el que participen representantes de la economía, la ciencia y la sociedad.

El grupo de investigación de inteligencia aplicada de la Universidad Carlos III, que dirige José Manuel Molina, sabe bien, gracias su trabajo con Administración y empresas, que la IA no se limita a instalar un software. Es compleja como la vida misma. «No sé muy bien cómo se mide la inteligencia artificial… la natural, tampoco. Al menos el sistema nos debe parecer inteligente, supongo que por eso todos los interfaces hablan», afirma. 

Siempre tiene que haber un responsable. A las máquinas no se les puede cortar la cabeza
 

Uno de sus proyectos ha consistido en diseñar un modelo equitativo de distribución de fondos entre barrios de Madrid. «El problema era compaginar un conjunto de índices donde la gente tiene opiniones muy diversas. Había que conseguir un algoritmo capaz de generar una opinión conjunta. La objetividad en la IA es complicada, porque o bien depende del criterio del experto que mete los parámetros, o de los datos. Puedes hacer 'trampas' al sistema», dice Molina. 

La startup Guardio ayuda a combatir el acoso escolar en las redes. Según su fundador, Pablo Elosúa, «el potencial para otros ámbitos es tremendo. Estamos todavía en pañales, es parecido al blockchain. Me parece increíble que la UE haga una encuesta para el cambio de hora y no esté siquiera en la fase de analizar datos. Eso ya no es ni IA, sino business intelligence a nivel político. Para tareas concretas la IA puede funcionar perfectamente, pero cuando tienes contexto la cosa se complica. El ejemplo perfecto es el del coche autónomo que no es capaz de incorporarse en la autopista porque hay mucho tráfico. Hay que poner los pies en la tierra».

El responsable del Grupo de Neuro-Rehabilitación del CSIC, José Luis Pons, insta a convertir a la IA en una cuestión de Estado. «Echo en falta políticas estratégicas que primen ciertos sectores, como logística, banca o medicina, que a nivel de país se unan esfuerzos para hacer desarrollos. La IA es completamente horizontal, allí donde haya necesidad de personalizar servicios y productos tiene cabida. Pienso en los esfuerzos que se hicieron en Corea en los años 50 y 60 para apostar por la industria de consumo que ha traído como consecuencia los gigantes tecnológicos de hoy en día». 

Llevamos años intentando generar bases de datos de los hospitales de Madrid para crear algoritmos

Pone como ejemplo actual «el planteamiento estratégico de EEUU, fundamentado en los errores cometidos en temas como la deslocalización de industria, que se ha traducido en que países de Asia generen el conocimiento y las patentes. Ha habido un reconocimiento del error y la promoción de proyectos a gran escala para impulsar la investigación en ámbitos clave. Luego la innovación viene casi de la mano de las grandes corporaciones».

Para el CEO y cofundador de TheLogicValue, Lorenzo García, la palabra fetiche es 'patrón'. «En la industria financiera, para sacar patrones necesitas millones de datos. Que España no tenga grandes empresas que controlen los datos financieros es un hándicap. No podemos desarrollar una economía de sacar patrones e IA en un país dependiente de datos financieros de Bloomberg, Reuters y Suiza».

Lo mismo sucede en el ámbito de la medicina, apostilla José Luis Pons. «Llevamos años intentando generar bases de datos con información de los hospitales de Madrid para desarrollar algoritmos de predicción, diagnóstico o tratamiento. Ni siquiera pedimos ligar esa información con otra región u otro país. Pero es difícil dentro de un hospital entre departamentos, cada uno tiene su sistema y aunque estemos en la misma región no son compatibles. En EEUU, no hay hospital que no tenga su área de Data Science dedicada a estructurar la información y hacerla compatible con otros hospitales con los que estén asociados».

Ojo con poner ciertos chatbots al usuario final porque requiere un servicio perfecto y no existe la precisión del 100%
 

En el sector privado, muchos sectores se centran ahora en proteger su core e incorporar capas de IA periféricas, porque «no hay IA generalista, no hay un chatbot al que le pueda preguntar cualquier cosa», afirma Juan Francisco García, director de big data y advanced analytics del Grupo CMC. «Hay que entrenarla para casos concretos. Al final siempre encontramos ese punto, ese patrón a mejorar, ya sea el call center o la atención al empleado. Eso implica que la empresa esté madura, que sea consciente de que tiene que introducir al sistema procesos, datos limpios. Si lo conseguimos, la empresa aplica IA, y si no hay que trabajar previamente».

El ámbito de recursos humanos quizás sea uno de los más accesibles en ese sentido. ¿Cuál es el futuro del trabajo con la IA? «Se están transformando los puestos de trabajo y los roles y las capacidades que vamos a necesitar. Existe el dilema sobre el efecto de la IA en la creación y destrucción de puestos de trabajo. Dependerá mucho del sector y de la industria. Las compañías tenemos la obligación de anticiparnos a esa realidad e ir de la mano del sector público, seguir incentivando los estudios en ingeniería, ciencia, matemáticas, acercarnos a los colegios. Y como profesionales tenemos que evolucionar en el sentido del aprendizaje continuo. Las realidades de crecimiento y zona de confort difícilmente van a poder coexistir, tendremos que vivir incómodos constantemente para seguir evolucionando. Las nuevas generaciones tienen un papel fundamental, porque el reto será cumplir con sus expectativas, con la inmediatez, con la capacidad de cocrear, con la transparencia», sostiene Pilar Pons, directora de RRHH de IBM.

No podemos desarrollar una economía de sacar patrones e IA en un país dependiente de datos financieros

Otro de los grandes debates actuales que dividen a los expertos es el momento oportuno para regular la IA. «El foco es distinto en función del problema que se quiera tratar», afirma José Manuel Molina. El ámbito laboral «deberá tener sucesivas adaptaciones legales hasta el infinito, porque no creo que paremos nunca de evolucionar». Y en cuanto al uso de la tecnología para determinadas acciones, «como los drones que bombardean, la IA tampoco tiene mucho que decir, no es mala ni buena, deberá haber una legislación para personas, no para máquinas».

El problema surge cuando el sistema artificial actúa con autonomía. «Siempre tiene que haber un responsable. A las máquinas no se les puede cortar la cabeza y eso no es nada práctico», apunta el catedrático de la UC3M. ¿Quién asume la responsabilidad? «Te deniegan un crédito porque 'lo dice el ordenador' y exiges una explicación. Hay directivas europeas pensando en esto, porque si utilizas sistemas neuronales hay cosas que no tienen explicación, tienes que hacer una auditoría posterior al sistema sin la precisión del 100% que exigen los juristas».

¿Y si a un cliente no le gusta la calificación que le asignado el sistema de Guardio? «Es muy difícil llegar a esa perfección del 100%. A un sistema de IA lo entrenas determinísticamente. Para establecer la responsabilidad, nosotros entregamos un SLA con un informe en el que explicamos los datos y las reglas que utiliza el sistema. A partir de ahí damos un servicio de reentrenamiento, pero no asumimos la responsabilidad de las decisiones incorrectas», explica Juan Francisco García. Y «ojo con poner ciertos chatbots al usuario final porque requiere un nivel de servicio perfecto». 

¿Y si el valor que recomienda la IA de TheLogicValue se desploma en Bolsa? «Se trata de ir al legislador con un asistente virtual que sigue unas reglas y que no compra acciones si el cliente no cumple una serie de requisitos. Es un modelo más determinista, al cliente, cuando le respondo, no le digo: 'compra', sino 'parece una buena opción por estos motivos y tú decides'. En los mercados financieros y en Bolsa la certidumbre no existe», según Lorenzo García. 

Ya hay profesiones en las que la máquina es el jefe. Pilar Pons no cree que una máquina nos despida en el futuro. «Hay funciones que nunca va a hacer una máquina y que se tienen que dejar a la persona. Otra cosa es que los humanos tengamos más información, se nos aumente nuestra capacidad y tengamos más ayuda. Pero es siempre una combinación de máquina y hombre». 

Otra de las grandes tendencias asociadas a la IA está siendo la integración de disciplinas ajenas al software y al mundo TIC. José Luis Pons explica que «en el ámbito de la neuro-rehabilitación intentamos que una persona que tenía un trastorno neurológico revierta esa situación. Esto nos permite ensayar nuevas estrategias de IA porque tenemos el modelo más complejo que podamos encontrarnos. En este ámbito es clásico hacer análisis de datos masivos que pueden venir del sistema nervioso central para ayudar al diagnóstico y predecir la evolución de esa persona, que luego se pueden aplicar a muchos otros campos».

Evitar el colapso con skills El viepresidente Cloud IBM España, Javier Valencia, advirtió de que «si no generamos capacidades, vamos a tener un colapso, no habrá gente con skills para desarrollar y emprender con estas tecnologías». En ese contexto enmarcó la iniciativa de su compañía de «acercar la tecnología a los colegios». 

Si quieres pudees ver el debate completo de este Foro sobre inteligencia artificial: