A fondo    DESCARTES

Cuando la inteligencia artificial sueña con tener juicio

Si los humanos aspiramos a ser dioses y los androides sueñan con ovejas eléctricas, ¿con qué fantasea la IA? ¿Qué distingue a los humanos de las máquinas y cómo podemos complementarnos?

01 NOV. 2019
19 minutos

“¿Con cuántas personas hablamos cada día? ¿Y con cuántas máquinas?” Con esas cuestiones reflexionaba recientemente Javier Lascuráin, coordinador general de la Fundación del Español Urgente (Fundéu BBVA), sobre cómo la comunicación entre personas y máquinas ha pasado de la ciencia ficción a nuestra vida diaria. De la misma manera, podríamos preguntarnos: ¿Cuántos artículos escritos por personas leemos cada día? ¿Y cuántos por máquinas?

Los avances de la inteligencia artificial (IA) en años recientes en campos como el aprendizaje profundo, el aprendizaje automático, el procesamiento del lenguaje natural y la lingüística computacional nos han traído a un presente en el que leemos, escuchamos, e interactuamos -a menudo sin ser conscientes- con sistemas e informaciones generadas por máquinas de forma automática. La relevancia de cómo ello afecta a la lengua castellana y al periodismo, y los retos éticos, lingüísticos y comunicativos asociados fueron el tema protagonista del XIV Seminario Internacional de Lengua y Periodismo que organizan la Fundación San Millán de la Cogolla y la Fundéu.

Entre muchas visiones y poco consenso, algo quedó claro: la automatización en los medios de comunicación es un fiel reflejo del papel que está jugando la inteligencia artificial en general en muchos sectores, de cómo se está aplicando, de sus límites y de los retos y riesgos que plantea. “Ofrece velocidad, capacidad de respuesta inmediata y alta capacidad de producción pero no puede dar cuenta de fenómenos complejos, no puede interpretar”, aseguraba el moderador de la sesión, el periodista Esteban Hernández.

Humanos 1 - Máquinas 0

En efecto, hay al menos tres tareas donde los humanos somos mejores. La primera es la interacción humana compleja, que requiere -en periodismo- escuchar, negociar, explicar, interpretar; adaptar el contenido a diferentes canales; poner la información en contexto. En definitiva, se trata de la inteligencia social. Necesitamos humanos para obtener información de otros humanos. E información no son solo palabras. Implica no solo escuchar lo que la persona dice sino cómo: su tono de voz, su lenguaje corporal, el contacto visual… Esto es así en periodismo y lo es en medicina, en la relación médico-paciente, y en tantos otros ámbitos.

La comunicación compleja lleva a otra de las tareas en las que las máquinas no son tan buenas. Se trata del pensamiento experto, de la capacidad de resolver problemas en profundidad utilizando el conocimiento del dominio. Por ejemplo, en una investigación como los ‘papeles de Panamá’, la importancia de ciertas relaciones solo puede quedar clara a través de la interpretación de un experto. Saber cuándo dar un paso atrás o cambiar una estrategia es algo que tampoco puede realizar un programa informático o un algoritmo. De igual modo, un médico construye un diagnóstico a partir de múltiples fuentes de información: lo que el paciente le ha contado, el historial médico del paciente, su conocimiento de la literatura médica, su experiencia con casos pasados, etc. Esta tarea no puede expresarse en un conjunto de reglas paso a paso.

Lo explica bien el informe Lecciones de PISA para Japón de la OCDE: “El procesamiento de información computarizada tiende a utilizar la lógica basada en reglas y el reconocimiento de patrones que a veces pueden reemplazar la necesidad de aportaciones humanas para resolver problemas conocidos o anticipados. Sin embargo, resolver problemas nuevos o imprevistos, o resolver problemas que carecen de soluciones basadas en reglas y que requieren un razonamiento no lineal y basado en casos, requieren habilidades de pensamiento experto”.

“En entornos ricos en tecnología, donde la información es abundante y las circunstancias pueden cambiar rápidamente, la capacidad de establecer una comprensión común de la información es muy valiosa y requiere habilidades de comunicación complejas para obtener información y establecer conexiones”, añade la publicación. Si bien se trata de un texto de 2012, en pleno boom del big data, pero aún en los albores de la explosión de la inteligencia artificial, las cosas no han cambiado tanto.

Que se lo digan a Watson, el sistema ‘cognitivo’ de IBM que se ha dado de bruces con los enormes retos técnicos y humanos de llevar la IA a la práctica clínica, como explica un profuso artículo en la revista Spectrum del Instituto de Ingeniería Eléctrica y Electrónica de EEUU (IEEE). Otro caso que ya está teniendo consecuencias negativas directas es el publicado esta misma semana en la revista científica Science. El estudio revela “un sesgo racial significativo” [contra personas de color] de un algoritmo de predicción ampliamente utilizado por los sistemas de salud para identificar y ayudar a los pacientes con necesidades de salud complejas.

Este sistema, según muestran los investigadores, tiene más probabilidades de recomendar atención médica adicional para pacientes blancos relativamente sanos que para pacientes negros más enfermos. “Remediar esta disparidad aumentaría el porcentaje de pacientes negros que reciben ayuda adicional de menos de un 18% a más de un 46%”, señalan los autores.

Si bien estos estudiaron un algoritmo específico en uso en el Hospital Brigham and Women de Boston (EEUU), dicen que su auditoría encontró que todos los algoritmos de este tipo que se venden a los hospitales funcionan de la misma manera. “Es uno de los ejemplos más grandes y típicos de una clase de herramientas comerciales de predicción de riesgos que, según estimaciones de la industria, se aplican a aproximadamente 200 millones de personas EE.UU cada año. Los grandes sistemas de salud y los contribuyentes confían en este algoritmo para dirigirse a los pacientes para programas de gestión de la atención de alto riesgo", señala el estudio.

IA 1 - Humanos 0

Las máquinas tampoco tienen la capacidad humana de ser dinámicas en el mundo. Los algoritmos son fabulosos en el trabajo repetitivo pero no pueden adaptarse a un mundo cambiante. Además, las personas tenemos una ventaja en términos de creatividad, de originalidad y de poder desarrollar nuevas interpretaciones de lo que está sucediendo en el mundo. Por otra parte, es necesario el sentido común y el juicio subjetivo en muchas tareas que no tienen una respuesta fácilmente demostrable y correcta.

¿Hasta qué punto pueden las máquinas aprender todo esto? Hay que reconocer que los humanos ya hemos dotado a la IA de ciertas capacidades en este sentido. Gracias en gran medida a fondos públicos se han desarrollado sistemas capaces de predecir el riesgo de infarto o muerte súbita, de realizar diagnósticos con un elevado porcentaje de acierto, de vernos y leer nuestro lenguaje corporal, de analizar nuestro discurso y sus incoherencias y contradicciones, de imitar nuestra creatividad o de generar automáticamente contenido informativo.

Todo ello permite optimizar procesos, reaccionar en tiempo real, personalizar, amplificar y escalar coberturas, evitar errores tipográficos o numéricos, democratizar el acceso a salud, educación o información independientemente de clases sociales o de las diferentes capacidades de cada cual…. Pero siempre con límites. “Estamos depositando demasiada confianza en estos sistemas”, apuntaba Luis Alfonso Ureña, catedrático de Informática de la Universidad de Jaén y Presidente de la Sociedad Española para el Procesamiento del Lenguaje Natural, durante el seminario de Fundación San Millán y Fundéu.

Ureña se refería, en concreto, a la producción automatizada de contenido. “De 0 a 10 estamos en un 5 en la capacidad de las máquinas para producir noticias, que no han resuelto figuras clave a la hora de lidiar con la ambigüedad, como la ironía, el sarcasmo, la polisemia o la negación. Si ni siquiera estas figuras están resueltas a nivel técnico, ¿cómo vamos a hablar de ser capaces de automatizar el periodismo?”, cuestionaba.

Con, y no contra

De nuevo, el mensaje es extrapolable a otros ámbitos: la tecnología está muy bien como complemento, pero no como reemplazo. “El deseo de eliminar el trabajo humano siempre genera más trabajo para los humanos” -dice la antropóloga Mary Gray en su libro Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass (Trabajo fantasma: cómo evitar que Silicon Valley construya una nueva subclase global), en referencia a lo que denomina ‘la paradoja de la última milla de la automatización’.

En salud, el investigador Eric Topol, profesor, director y fundador del Scripps Research Translational Institute, afirma en un artículo en Nature Medicine que casi todos los médicos dedicados a la práctica usarán la IA en el futuro. Sin embargo, advierte que, si bien el campo es ciertamente prometedor, hay relativamente pocas pruebas de esas promesas. También que el riesgo de dar con algoritmos defectuosos es exponencialmente más alto que el de una sola interacción médico-paciente, pero la recompensa en reducción de errores, ineficiencias y costes es considerable.

Sin quitar méritos al avance tecnológico, este se encuentra con inevitables límites. “Históricamente siempre hemos dado a las máquinas un valor de exactitud. La mayoría de la gente piensa que la máquina es exacta, pero lo cierto es que los GPS nos han hecho perdernos a más de uno”, comentaba también durante el seminario Elisa Martín Garijo, directora de Tecnología e Innovación de IBM España, Portugal, Grecia e Israel. La mayoría de toda la producción de la IA -dice- es probabilística. “La clave no está solo en la ciencia sino cómo construyo esa máquina: cómo curo la información, como consigo que el algoritmo mantenga el equilibrio en la toma de decisiones, y eso es lo que hacemos los humanos”, señalaba.

Las máquinas no tienen sentido común, ni capacidad de interpretar, ni comunicación compleja, ni pensamiento experto. Hay quienes aseguran -como José Ignacio Latorre Sentis, catedrático de Física Teórica de la Universidad de Barcelona- que llegará a tenerlo, que habrá máquinas ultrainteligentes capaces de superar en todas las actividades intelectuales a cualquier humano. Incluso aunque ello sea posible, solo sucederá si así lo queremos, y por ello es necesario plantearse si es deseable y si queremos invertir la ingente cantidad de recursos y dinero necesarios para ello.

Hasta entonces -tan largo me lo fiáis- el juicio humano será para las máquinas tan solo un sueño. Si, en el transcurso, queremos evitar vivir en un mundo probabilístico, gobernado por los números y bajo una falsa apariencia de objetividad, que reproduzca y amplifique sesgos -que contravienen incluso, los derechos humanos- tendremos que trabajar con las máquinas para dotarlas de lo que le falta y usarlas para aumentar nuestras capacidades en aquello en lo que pueden superarnos. La cuestión no será quién gana el partido de los humanos contra las máquinas, o viceversa, sino cómo hacemos que ambos sumen y que sea en beneficio de todos, no solo de unos pocos.

Legibilidad vs. creatividad
Un ejemplo claro de la atribución de exactitud y de objetividad a las máquinas lo encontramos, de nuevo, en el periodismo. Según estudio de las universidades de Columbia (EE.UU) y  Munich (Alemania), las noticias escritas por sistemas automáticos de generación de noticias resultan más creíbles pero menos legibles que las escritos por periodistas. A pesar de que también lo producido por las máquinas ha sido alimentado por personas, adquiere una falsa apariencia de objetividad. Los investigadores señalan que la percepción favorable de las noticias escritas por máquinas aumentará con el tiempo, por lo que “es necesario establecer un marco ético para la generación automatizada de noticias”. Por lo pronto, un deber claro: informar al lector de la autoría humana o algorítmica de cada artículo.