Comparte:
Cloud
28 de mayo de 2018

AWS Summit y la democratización de la inteligencia artificial

AWS Summit y la democratización de la inteligencia artificial

AWS Summit y la democratización de la inteligencia artificial

Escrito por , 28/05/2018

El pasado 17 de mayo Amazon Web Services (AWS) nos citó un año más para poner de largo muchas de las novedades que ha ido lanzando en los últimos meses. Con varias apariciones estelares y con la presencia del carismático Werner Vogels (CTO de Amazon.com), fue un evento orientado a la innovación para mostrar cómo la nube, y sobre todo las plataformas como servicio, puede facilitar a empresas de todos los tamaños y sectores competir en la era digital.

Fue una jornada multidisciplinar en la que se mostraron casos de éxito de empresas que daban sus primeros pasos en la nube y de otras que rompían las barreras y alcanzaban un nuevo nivel, gracias a obtener el máximo provecho de cloud computing. Me centraré en esto segundo.

Los servicios de las hiperescalares (así es como denominamos a AWS, Azure o Google Cloud Platform, entre otras) hace tiempo que dejaron de estar enfocados a la infraestructura como servicio o alquiler de máquinas virtuales y pasaron a las plataformas como servicio (PaaS), ámbito en el que es más fácil aportar un valor diferencial. Y aquí es donde se está librando la batalla: se trata de ser el más rápido en ofrecer el servicio de esta o aquella tecnología.

El valor está en el PaaS, ¿pero PaaS de qué?

Durante el último año hemos vivido grandes progresos en inteligencia artificial, hemos visto cómo cloud ha democratizado esta tecnología y la ha hecho accesible a todas las empresas. Porque ¿sabéis cómo funciona la inteligencia artificial? Ingentes cantidades de datos tienen que pasar por lo que se denominan redes neuronales para entrenar un modelo que será más efectivo cuanto más datos tenga, ya que así contará con un mayor número de circunstancias. Se trata de entrenar a dicho modelo para que responda ante el máximo número posible de variables, lo que nos permitirá automatizar procesos y servicios, así como hacerlos más ágiles.

Para explicar el funcionamiento de esta fase de entrenamiento, uno de los ejemplos más ilustrativos es el del traductor de idiomas. Pongámonos en el hipotético caso de que creamos un servicio de traducción online de inglés-español. Para la primera fase, que sería traducir palabras concretas, habría que buscar en Internet una base de datos de palabras que enlazara con el traductor.

Pero, de esa forma, el usuario solo podría traducir palabra a palabra. La traducción de frases supone un salto cuántico, ya que el orden de los términos y el contexto pueden variar su significado en gran medida (¿alguno recuerda el capítulo de Friends en el que Joey tenía que escribir una carta formal para ayudar a sus amigos a adoptar un niño? El uso de la herramienta de sinónimos provocaba que el texto completo dejara de tener sentido).

Para traducir frases, por tanto, la base de datos de palabras se queda corta. Para ello son necesarios textos completos traducidos en ambos idiomas. ¿Qué os parece la enciclopedia británica como punto de partida? De esta forma seguro que nuestro modelo ganará precisión, pero seguirá sin entender expresiones coloquiales, por lo que seguimos necesitando más y más datos.

Imaginemos que agregamos al modelo toda la Wikipedia: millones de artículos periodísticos y todas las fuentes de datos que se nos ocurran. Pero aun así nos falta una fuente de entrada clave: los datos de uso de la plataforma: cuantos más usuarios lo usen, más datos de entradas tendremos y podremos utilizar a esos usuarios para entrenar al modelo.

Al cabo de cientos de miles de euros de inversión en infraestructura y muchas horas de trabajo de científicos de datos tendremos un modelo entrenado pero ¿merecía la pena? ¿No podríamos haber utilizado un “as a service” en el que alguien ya hubiera hecho este trabajo por nosotros?

¡Desde luego que sí! y en esto consiste precisamente la democratización de la inteligencia artificial gracias a cloud. Se trata, ni más ni menos, de un modelo de “pago por uso” en el que el coste depende del consumo, ya sea cuarto y mitad de chatbot, un tercio de reconocimiento de imágenes/vídeos o dos quintos de pasar de voz a texto. Así, no es de extrañar que cada día nos encontremos con más casos de uso que utilizan inteligencia artificial, y es que con una implementación tan sencilla no se necesita un científico de datos, ni inversión en infraestructura específica.

Pongámonos ahora en el otro lado: el caso de una empresa con una fuerte capacidad de datos, que quiere realizar sus propios casos de uso de inteligencia artificial y ofrecerlos en modo pago por uso. AWS mostró en el evento su recién lanzado SageMaker, un servicio que permite a los científicos de datos entrenar sus propios modelos, separando la capa de datos de la gestión de la infraestructura, lo que facilita enormemente el despliegue de los entornos.

Pues bien, Telefónica ha firmado un acuerdo estratégico con AWS para ofrecer todos estos servicios a sus clientes en España y Latinoamérica y, además, Telefónica contará con personal certificado gracias a la creación de un centro de excelencia de conocimiento cloud, especializado en Amazon Web Services. Es el fruto del trabajo conjunto que tanto AWS como Telefónica llevan a cabo desde hace tiempo, que comenzó con la hibridación de la nube, lo que en Living Cloud (la propuesta de Telefónica para la transformación digital de las empresas) se traduce en la creación de entornos multicloud que permiten a las compañías crear una nube a su medida, y con esta alianza avanza mucho más aún para proporcionarles las soluciones necesarias para llevar sus negocios hasta el infinito y más allá.

Imagen: Pablo Viojo

Sobre el autor

Álvaro Paniagua Martín

Álvaro Paniagua Martín

Ingeniero, bloguero y aprendiz de marketing. Responsable de la propuesta de valor "cloud native” en Telefónica por el día, fotógrafo y cinéfilo por las noches.
Ver todos sus artículos »