Opinión    La ventana de IMMUNE

La inteligencia artificial para crear impacto social

Mónica Villas
28 NOV. 2019
8 minutos
El pensamiento crítico o la propia ética van a ser claves para trabajar con IA. / Mauro Mora / Unsplash

La sociedad y el mundo empresarial están inmersos en una auténtica revolución tecnológica, donde el dato es el protagonista y los algoritmos, el motor de desarrollo. La necesidad de sacar partido a la información existente (que, dicho sea de paso, crece a tal ritmo que el ser humano es incapaz de procesar) a través de algoritmos inteligentes, ha generado un incremento del uso de la inteligencia artificial en todos los ámbitos.

Por eso, no es de extrañar que cada vez más compañías inviertan en el análisis de los datos obtenidos por muy diversos dispositivos y caminos, para buscar nuevas soluciones o mejoras, tanto en el ámbito empresarial como para la sociedad. Este nuevo planteamiento que puede parecer un escenario sin fisuras también acarrea retos y desafíos éticos que deben ser abordados de manera inmediata por los principales desarrolladores de esta tecnología y por los organismos públicos.

En los últimos años se ha demonizado el uso de la inteligencia artificial en el ámbito laboral, por la correlación que se hacía de la automatización y la destrucción de empleos. Un argumento fácilmente desmontable, porque numerosos estudios apuntan que la aplicación de IA en sectores como la educación o la salud creará más de siete millones de empleos para 2037. Cierto es que la llegada de la inteligencia artificial va a promover un cambio social que impactará en el empleo como lo han venido haciendo las anteriores revoluciones tecnológicas solamente que ahora el cambio es mucho más rápido; pero debemos ser conscientes de que su uso, de una forma responsable, también está generando un impacto social positivo en nuestro día a día. 

La capacidad de gestionar una gran cantidad de datos de forma automática y la automatización de los procesos gracias al machine learning, nos ha permitido avanzar como sociedad y mejorar nuestra calidad de vida. El aprendizaje automático y su tasa de error para el etiquetado de imágenes, situado en un 2,5%, ha convertido a la inteligencia artificial en un aliado imprescindible en el campo de la medicina. La detección del cáncer de piel, la localización de posibles retinopatías o enfermedades oculares o la lucha contra el Parkinson, son algunos de los ejemplos que la IA de compañias como IBM, Google o Amazon están abordando.

Pero la aplicación de IA se extiende más allá del campo médico, como por ejemplo la desarrollada por la startup Watsomapp utilizando tecnología de IBM para prevenir el acoso escolar. Esta aplicación capacita a los docentes para que identifiquen y prevengan de manera proactiva el acoso escolar por medio de un robot que establece el diálogo con los alumnos. Otro caso es el desarrollo de una aplicación móvil para ayudar a las personas ciegas Seeing AI utilizando la tecnología de Microsoft.

En definitiva, todos estos casos ponen de manifiesto los innumerables beneficios de la inteligencia artificial; pero ¿dónde está el límite? ¿cuáles son los riesgos que afronta la sociedad ahora y en el futuro? Las grandes compañías, encargadas de desarrollar esta tecnología, cada vez más concienciadas de su responsabilidad en el futuro uso que se haga de las aplicaciones y sistemas que desarrollan, tienen ya sus códigos éticos que permiten aplicar la inteligencia artificial de forma responsable atendiendo a las implicaciones morales y éticas que conlleva, centrando sus esfuerzos en abordar un marco regulatorio que permita desarrollar la Inteligencia Artificial enfocada en el ser humano de forma integradora y transparente. Adicionalmente, los clientes hiperconectados y cada vez más preocupados por la ética, también están contribuyendo a que no sólo las grandes compañías tengan estos códigos éticos, sino que además se apliquen en favor de un uso adecuado de los datos y se eviten posibles sesgos.

En este contexto también desde la Unión Europea en abril de este año publicaron las Ethics Guidelines for Trustworthy Artificial Intelligence que se basa en tres principios clave: cumplimiento de la legislación, consistencia no sólo referente a la tecnología sino al impacto social y respeto a los principios y valores éticos. Además, adicionalmente están surgiendo distintas iniciativas en España, como ODISEIA (Observatorio de Impacto social y ética de la Inteligencia artificial), una asociación sin ánimo de lucro formado por profesionales multidisciplinares del mundo educativo, profesional e institucional con el objetivo de establecer mejores prácticas, formación y divulgación.

Desde el punto de vista de la educación en inteligencia artificial, sigue habiendo una necesidad no sólo en el número de profesionales formados en esa tecnología, sino además en la falta de protagonismo de las humanidades en este campo, que normalmente tienen un contenido solamente técnico. Áreas como la lingüística, el pensamiento crítico o la propia ética van a ser claves para trabajar con IA. Para ello es necesario apostar por formaciones que incluyan la mezcla de ambos mundos, tecnológico y humanístico, dado que los retos de las futuras generaciones que trabajarán aprenderán y convivirán con la inteligencia artificial no se limitarán solamente a la parte técnica.

Como ya dijo Alan Turing, padre de la inteligencia artificial, “sólo podemos ver poco del futuro, pero lo suficiente como para darnos cuenta de que hay mucho por hacer”.

Mónica Villas, Artificial Intelligence Knowledge Leader en IMMUNE Technology Institute