Comparte:
Sociedad digital
7 de diciembre de 2018

Ni “moralidad artificial” ni “moral media”: la moral de las máquinas es la nuestra

Ni “moralidad artificial” ni “moral media”: la moral de las máquinas es la nuestra

Ni “moralidad artificial” ni “moral media”: la moral de las máquinas es la nuestra

Escrito por , 7/12/2018

En los últimos meses, a raíz de los avances en “máquinas autónomas”, se ha instalado un debate público en torno a las decisiones morales que pueden llegar a tomar estos dispositivos, con independencia de un ser humano que los controle.

Aunque los expertos llevan décadas  discutiendo sobre el tema, en los últimos tiempos la cuestión ha llegado al público general, ya que estamos más cerca que nunca de disponer de vehículos autónomos, robots de propósito general o asistentes virtuales.

El tema ha cobrado tal relevancia que ha obligado a empresas y gobiernos a posicionarse al respecto. El propio Parlamento Europeo ha dictado una resolución en la que formula una serie de recomendaciones, que incluyen la concesión de un nuevo tipo de personalidad jurídica a los “robots autónomos más complejos”. Poco después, un grupo de 200 expertos europeos en inteligencia artificial, rechazó la iniciativa. Finalmente, la CE ha designado una comisión para analizar el tema.

Es indudable que las decisiones de una máquina autónoma pueden tener una gran trascendencia en nuestras vidas. La mala decisión de un coche autónomo en una situación de emergencia puede acabar con la vida de una persona o información errónea por parte de un asistente inteligente tener graves consecuencias. Sin embargo, esto tampoco es nuevo. Desde finales de los ochenta, la industria financiera utiliza sistemas de “credit scoring” para conceder préstamos. Estos sistemas “inteligentes” se basan en los antecedentes de millones de personas y proyectan, a partir de unas características comunes, el posible comportamiento crediticio de otras. La pertenencia a un “grupo de riesgo” en términos algorítmicos puede significar quedar automáticamente fuera del mercado de crédito.

Y lo mismo ocurre en cientos de sectores: seguros, salud, transportes, Administración pública, selección de personal… en todos ellos un sistema “filtra” la realidad y ayuda a la toma de decisiones. Uno querría creer que siempre existe una supervisión humana, pero muchas veces se puede constatar que no es así, por lo menos en primera instancia.

Y es que la “moralidad” de las decisiones que toma un sistema automático derivan de su diseñador, es reflejo de los valores y normas de las organizaciones o personas que los usan, sujetos a la sanción del público y de los organismos de control (un buen ejemplo es el escandaloso caso del software del control de emisiones de un conocido fabricante de coches). ¿Qué es, entonces, lo que ha cambiado?

Quizá la mayor inquietud de la industria tecnológica es que, en su afán de acelerar, se están utilizando crecientemente métodos de “adquisición automática de conocimiento” (machine learning). La disponibilidad masiva de datos en formatos digitales facilita la utilización de algoritmos de aprendizaje y la autoconstrucción de modelos de decisión, con menor o casi ninguna participación humana, porque se reduce los costes de desarrollo.

El ejemplo típico sería monitorizar a un conductor humano durante muchas horas y registrar los datos de todas sus decisiones en cada contexto para luego formular reglas algorítmicas a partir de ellos. El resultado es razonablemente imprevisible (¿Se han contemplado todas las situaciones posibles?).

Con el fin de complementar este enfoque, algunos investigadores están empleando otros métodos. Es el caso del proyecto “Moral machine” del MIT, que pretende recopilar los datos de las decisiones morales de millones de personas en situaciones hipotéticas, para establecer una especie de “moral media”.  Por ejemplo, si alguien pierde el control del coche y tiene delante a un grupo de tres niños y cinco ancianos, ¿debe atropellar a los primeros o a los segundos?

Este enfoque es claramente ineficaz. Se ha demostrado el “sesgo inmoral” que pueden adquirir desde los buscadores de Google hasta los contenidos en Twitter basados en la interacción de millones de personas que manifiestan sus prejuicios bajo el anonimato de Internet.

Pero desde el punto de vista del fabricante ésta es, en realidad, una forma sutil de “liberarse de responsabilidad” (la decisión moral es de otro). Lo mismo ocurre con el lobby a favor de una regulación oficial que dé cobertura a las posibles demandas legales.  Hay cierto vértigo o temor en algunos sectores tecnológicos (el 72 por ciento de los ciudadanos de EE.UU. manifiesta su preocupación).  Creo que el origen de este temor hay que buscarlo hace más de setenta años.

La mayor parte del público (y de los directivos de empresa) basa su visión de las “máquinas inteligentes” en autores como Isaac Asimov, Philip K. Dick o Arthur C. Clarke que escribieron extensamente sobre los dilemas morales de las máquinas y, sobre todo, en las películas que se basaron en sus novelas, y en los cientos de autores de libros, cine y televisión posteriores en los que influyeron, que crearon un canon generalmente aceptado, en torno a las máquinas autónomas.

Imagen: Portada de la colección de “I Robot” con relatos de Isaac Asimov

Según Asimov “…robots que destruyen a su creador. El conocimiento tiene sus peligros, sí, pero ¿abandonar el conocimiento es la respuesta? ¿O el conocimiento debe usarse en sí mismo como una barrera para los peligros que conlleva? “. Por eso, en sus historias los robots “no se volverían estúpidos contra su creador sin ningún propósito, sino para demostrar, durante un tiempo más agotador, el crimen y el castigo de Fausto”

Esta visión negativa de los robots (o creaciones similares) es incluso anterior a Asimov, como el mito del Golem (que seguramente conoció a través de sus padres, judíos rusos emigrados a Nueva York) y una novela inspirada en él: “Frankenstein” de Mary Shelley. Representa el miedo del creador a perder el control sobre su invención. En términos actuales, el temor a que los robots lleguen a ser más listos que nosotros se ha descrito como la “singularidad”.

Asimov veía tan peligrosa esta tecnología que hasta propuso un mecanismo de seguridad para reducir su riesgo. Sus tres famosas reglas de la robótica que aparecen en “Círculo vicioso” en 1942:

  1. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquéllas que entren en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con las leyes anteriores.

Hasta 1957, en la primera etapa de su carrera, y con la intención de entretener, el escritor se dedicó a asustarnos sobre los peligros de la inteligencia artificial desbocada. Pero durante los siguientes 25 años escribió muchos libros y artículos de divulgación científica, lo que dio un matiz de mayor “seriedad” a su obra anterior. Es más, ya con esa imagen  de “científico serio”, desde 1982 hasta su muerte, diez años después, retomó su carrera en la ciencia-ficción, llenando huecos con secuelas y creando un complejo universo literario completamente ficticio pero creíble.

No hay que menospreciar su influencia y la de los otros en la comunidad científica. Los jóvenes lectores de Asimov fueron y son ahora investigadores. El propio Asimov popularizó los términos “robot”, “robótica”, “positronics” (una tecnología ficticia). Escritos con un gran trabajo de investigación detrás, similar al de Julio Verne en su momento, divulgaron estas incipientes tecnologías y sus dilemas morales, reales o imaginarios.  Hoy en día es difícil encontrar un texto de divulgación sobre inteligencia artificial que no haga referencia a las reglas de la robótica, a “HAL9000” de Clarke o los “replicantes” de Dick.

Pero ¿cómo se resuelve el gran “dilema moral” de la inteligencia artificial? Mientras no llegue la “singularidad” (“cuando se trata de proyectar a más de diez años todo se vuelve borroso”, Geoff Hinton), de la misma forma que con los demás sistemas “no inteligentes”: con transparencia, principios públicos, procesos internos que aseguren su implantación en los sistemas y auditoría. La moral de los sistemas es la nuestra.

Imagen apertura: Robots contra humanos (escena de la película I Robot de 2004, basada en ideas de Isaac Asimov)

Sobre el autor

Víctor Eduardo Deutsch

Víctor Eduardo Deutsch

Tengo veinticinco años de experiencia en gestión de empresas tecnológicas y he trabajado como consultor de grandes empresas en veinte países en Europa y América. Antes que en Telefónica trabajé en KPM Consulting. He sido profesor adjunto de la Universidad de Buenos Aires-UBA, coautor del programa ejecutivo en eProcurement para el Instituto de Empresa (Madrid) en 2003, investigador UBA y coautor de trabajos de inteligencia artificial, así como del Manual de desarrollo Empresario “Líderes del tercer milenio” y autor de numerosos artículos en medios de España y Argentina.
Ver todos sus artículos »