Síguenos:
Transformación Digital
3 de octubre de 2017

El enigma de Leonardo Da Vinci y los desafíos de la inteligencia artificial

El enigma de Leonardo Da Vinci y los desafíos de la inteligencia artificial

El enigma de Leonardo Da Vinci y los desafíos de la inteligencia artificial

Escrito por , 3/10/2017

Hace exactamente veinticinco años (septiembre de 1992), tuve la suerte de participar en la Conferencia de Inteligencia Artificial del Pacífico (PRICAI-1992) en Seúl, Corea del Sur. En aquel momento era uno de los tres principales encuentros mundiales sobre Inteligencia Artificial (IA) al que acudían investigadores y expertos de las principales universidades y empresas.

Ha llovido mucho desde entonces pero cuando actualmente se habla de la enorme influencia que tendrá la inteligencia artificial en el futuro del trabajo, los negocios y la vida cotidiana en general es interesante recordar lo que ya se decía en ese momento (¡veinticinco años atrás!) y poner en perspectiva las transformaciones que estamos viviendo en este momento.

Recuerdo que algunos de los principales ponentes de esa conferencia fueron (¡cómo no!) expertos de empresas de informática (IBM, Microsoft) y telecomunicaciones (AT&T, Korea Telecom). Estamos hablando de una época en la cual apenas se conocía públicamente Internet, que se circunscribía al ámbito de los investigadores (gracias a la participación en aquel evento conseguí mi primera cuenta de correo electrónico).

En 1992, Julia Hirschberg de los AT&T Labs expuso cómo su compañía estaba trabajando para dar un salto importante en las aplicaciones de reconocimiento y síntesis de voz, con la incorporación de sensores que identificaban la entonación del hablante para dar una semántica más clara a las conversaciones hombre-máquina, con el objetivo de mejorar la atención al cliente. El doctor Hong S. Shinn, de Korea Telekom, contó el plan de su compañía para aprovechar esta tecnología y conversamos largamente con él sobre el trabajo que acababa de publicar respecto a una técnica novedosa de machine learning y sus posibles aplicaciones.

Un cuarto de siglo después, este artículo de Computerworld, que hace referencia a un estudio de Cap Gemini, indica que el sector con mayor porcentaje de empresas que trabajan en IA es el de Telecomunicaciones (49 por ciento). Y -tampoco sorprende- el mayor número de aplicaciones en desarrollo está relacionado con procesos “necesarios” como el servicio al cliente.

¿Qué ha pasado entonces para que una tecnología incipiente tarde veinticinco años en desarrollarse y todavía no tenga una aplicación generalizada? ¿Estamos generando una enorme expectativa insatisfecha? Si uno lee la prensa estos días da la sensación de que ha llegado el momento en el que la IA va a transformar por completo la sociedad en los aspectos laborales, sociales y educativos. Incluso se habla de la eliminación de millones de puestos de trabajo en todo el mundo.

Pero no entremos en pánico. En primer lugar, hay que aclarar de qué hablamos cuando nos referimos a la IA hoy en día y de las capacidades a su alcance, su verdadero “estado del arte”, más allá de las “expectativas desbordadas”. Por ejemplo, en 1992, los sistemas basados en reglas ya estaban bastante maduros. Había sistemas expertos en el ámbito del diagnóstico médico (el más famoso Mycin), de scoring crediticio (las primeras aplicaciones en empresas) y éramos capaces de codificar toda una jurisprudencia nacional.

Pero los principales campos que se abrían entonces eran la interpretación del lenguaje natural (humano) y el reconocimiento de patrones de imágenes, así como las técnicas de machine learning. Casi todos los informes de PRICA’ 92 se referían a esos temas. Los métodos que se esbozaban en esa época eran ingeniosos y bien fundados, pero tenían un problema: necesitaban un poder computacional que no existía.

La mayor revolución de los últimos veinticinco años no se ha dado en el campo de los algoritmos, de las técnicas de machine learning ni de los modelos lógicos de razonamiento. Son muy antiguos y ya en 1992 se basaban en otros mucho más antiguos. El verdadero cambio está en la enorme mejora de la capacidad de procesamiento de datos (gracias a procesadores más veloces), en la explosión de la captación y registro de datos (en 1992 conseguir grandes bases de datos era difícil y costoso) y en la interconexión de numerosos sistemas a distancia (a través de las redes de datos), lo que multiplica exponencialmente su capacidad de compartir información y tiempo de trabajo.

Lo que antes no era posible, ahora lo es. Algo así como cuando uno construye en la actualidad un diseño renacentista de Leonardo Da Vinci. En muchos casos, la tecnología de la época no existía aún para que ese diseño funcionara y ahora sí. Un ejemplo es el caso del “carro de combate” (que se ve en este post). Era un diseño innovador que permitía desplazarse por el campo de batalla y disparar artillería en todas direcciones, a la vez que sus tripulantes iban protegidos con una coraza, como un tanque actual.

Pero tenía un problema: no existía tracción humana ni animal capaz de mover un vehículo de ese peso y aún no se habían inventado los motores de vapor o a explosión. Hay quien especula incluso con que Da Vinci, más allá de su diseño prospectivo, conociendo esto, no avanzó en muchos casos de la fase teórica y no pretendía siquiera construir sus diseños. Incluso hay quien sostiene que introdujo errores deliberados para “despistar”. Es un enigma difícil de resolver pero está claro que estas ideas hoy se revelan viables porque tenemos la tecnología para construirlas.

Las mejoras en la TI han permitido que la IA sea viable económicamente para tres actividades para las cuales antes no lo era: la interpretación de lenguaje natural, el reconocimiento de patrones de imágenes y la construcción dinámica de sistemas basados en reglas, que se construyen muy rápidamente en base a la abundancia de ejemplos (datos) y permite recomendar decisiones más rápido y en forma más fiable (lo que abre el campo a muchas nuevas aplicaciones).

Ahora bien, a día de hoy el “estado del arte” no desborda a otros ámbitos. Estamos muy lejos de que un algoritmo pueda reemplazar masivamente tareas que realizan los seres humanos. Como Leonardo Da Vinci en el siglo XV, en este momento somos capaces de imaginar e incluso diseñar aplicaciones revolucionarias basadas en IA, para resolver problemas complejos y potencialmente brindar enormes beneficios… solo para descubrir que no existe la tecnología para hacerlas funcionar.

Como indica este estudio de Harvard existen muchos campos de actuación humana en las empresas en los que: “Muchas decisiones requieren una visión más allá de lo que la inteligencia artificial puede extraer de los datos por sí solos. Los gerentes utilizan su conocimiento de la historia y cultura organizacional, así como la empatía y la reflexión ética. Ésta es la esencia del juicio humano: la aplicación de la experiencia a las decisiones y prácticas críticas del negocio.”

Poco que agregar. Las organizaciones pretenden que sus miembros (no solo los más jerarquizados) utilicen algo más allá” de los datos para ejecutar un trabajo o tomar decisiones. Y ésas son las habilidades por las cuáles nos suelen seleccionar o elegir: un determinado nivel de cultura general, sensibilidad por algunos temas, capacidad para diseñar o probar cosas nuevas (no basadas en los datos) y, lo más difícil de juzgar, el sentido común y el criterio profesional.

Todo ello no está codificado ni disponible para un “agente virtual”. En este post contaba cómo un “viejo rockero” de la IA, Doug Lenat, había anticipado el problema en los ´80 y se tomó un trabajo de más de treinta años para crear una base de datos que agrupara todo el sentido común de la humanidad (proyecto CYC). Los primeros resultados se están viendo ahora pero no son de aplicación universal sino solo en ciertos proyectos específicos, muy discretos y a un coste muy alto.

Queda mucho tiempo para que podamos “enlatar” el “sentido común”. Incluso aunque una máquina consiguiera superar el test de Turing se encontraría hoy más cerca del “cuarto chino” de John Searle (otro de los mantras de la IA). Como señalaba este filósofo, para un observador externo podría parecer que el software razonara como un humano pero, en realidad, solo podría dar respuestas concretas en situaciones altamente predecibles y en ámbitos muy restringidos durante otros… ¿veinticinco años?

Imagen: AYArktos/Dominio público

Sobre el autor

Víctor Eduardo Deutsch

Víctor Eduardo Deutsch

Tengo veinticinco años de experiencia en gestión de empresas tecnológicas y he trabajado como consultor de grandes empresas en veinte países en Europa y América. Antes que en Telefónica trabajé en KPM Consulting. He sido profesor adjunto de la Universidad de Buenos Aires-UBA, coautor del programa ejecutivo en eProcurement para el Instituto de Empresa (Madrid) en 2003, investigador UBA y coautor de trabajos de inteligencia artificial, así como del Manual de desarrollo Empresario “Líderes del tercer milenio” y autor de numerosos artículos en medios de España y Argentina.
Ver todos sus artículos »