Síguenos:
Big data
26 de Abril de 2017

Big data as a service: sin excusas para la mejor toma de decisiones y una analítica predictiva

Big data as a service: sin excusas para la mejor toma de decisiones y una analítica predictiva

Big data as a service: sin excusas para la mejor toma de decisiones y una analítica predictiva

Escrito por , 26/04/2017

¿A qué nos referimos cuando hablamos de plataforma big data? Aunque en ocasiones se proporciona una respuesta única (Hadoop, Spark, bases de datos NoSQL, algoritmos de aprendizaje automático, etc.), lo más ajustado a la realidad sería hablar de un puzle de herramientas (más o menos versátiles) que es necesario engranar de forma sostenible para resolver un caso de uso (extraer información útil y valiosa para la empresa). Como ya se ha explicado en este blog, esto implica el uso de enormes volúmenes de datos, en rápido crecimiento y de fuentes variadas: estructuradas y no estructuradas o semiestructuradas, tanto de dentro de las empresas como las que proporcionan terceros del ámbito privado o público.

En la práctica, cada etapa de un caso de uso (ingesta de datos desde su origen a la plataforma, almacenamiento de los mismos, su transformación para eliminar lo redundante o lo que menos valor aporta, análisis y extracción de conclusiones y presentación de los resultados obtenidos de una forma visualmente atractiva) dispone de una enorme variedad de soluciones para resolverla.

Una vez superada la fase de definición del caso de uso, en la que se plantean las preguntas que resolverá, cuáles son los datos que ayudarán a responderlas, cómo conseguirlos y procesarlos, llega el momento de abordar otras cuestiones que permitirán definir cuál es la plataforma de big data idónea.

La primera cuestión es clásica: ¿Cuál es la herramienta más adecuada? El precio, en este caso, no suele ser un factor crítico ya que, en muchas ocasiones, se trata de software de código abierto o con licencias bastante económicas que funciona sobre hardware estándar con Linux. El coste del soporte tampoco es elevado pues suele haber diversidad de modalidades que van desde las gratuitas (muy útiles para empezar a conocer sus capacidades) hasta las de mayor exigencia para el ámbito empresarial.

Respecto al grado de madurez y su nivel de integración con otras herramientas, la cosa se complica. Aquí, la evolución es frenética: prácticamente cada mes aparecen herramientas nuevas, nuevas versiones o ampliaciones de las ya existentes y desaparecen aquéllas que no han encontrado su hueco. Y, aunque mantenerse actualizado es esencial, no es menos importante distinguir entre lo “beta” y lo estable, entre lo adecuado para un entorno de laboratorio y para un entorno productivo, entre lo destinado a un pequeño nicho de casos de uso y lo más generalista, entre lo que tiene múltiples y sencillas vías de integración con lo ya implantado y lo que tiene muchas posibilidades de convertirse en una seta. La tecnología big data no está destinada a vivir aisladamente en un ecosistema, bien asentado en las empresas, de bases de datos relacionales, datawarehouse (DWH), de business intelligence (BI), cuadros de mando e informes, sistemas operacionales, etc., sino que debe tener la mayor versatilidad posible para integrarse no solo con otras herramientas big data, sino también con otras presentes desde hace tiempo en las empresas. Y ésta no es una exigencia en un único sentido, sino que también aplica a las herramientas tradicionales de BI y sistemas informacionales/operacionales que, cada vez más, ofrecen conectores e integración con las herramientas big data más exitosas, en una senda de hibridación que es imparable, ya que big data no ha venido a sustituir por completo a las plataformas DWH/BI tradicionales, sino a complementarlas.

Y llegamos así a otra cuestión crítica: ¿cuál debe ser la flexibilidad de una plataforma big data? Flexibilidad entendida no sólo, como indicaba antes, en términos de integración entre herramientas, sino también como la capacidad de incorporar rápidamente todas las mejoras (interfaces gráficos, asistentes, inteligencia embebida, nuevos lenguajes y librerías de programación, ampliación de los ya existentes, etc.) que pueden suponer nuevos casos de uso, un procesado más eficiente de datos, el tratamiento de nuevas fuentes que aumenten el valor del caso o una nueva manera de visualizar las conclusiones que se obtengan. Y también flexibilidad en términos de crecimiento, ya que una vez arranca la transformación de una compañía, para que la toma de decisiones esté basada en datos el uso de plataformas big data no va a parar de crecer y este crecimiento debe ser absorbido en el menor plazo posible.

Todos estos requisitos nos conducen a unas necesidades permanentes de formación y capacitación de las personas a cargo de su administración y operación. Tarea complicada a la vista de la complejidad de las herramientas (no, desgraciadamente, esto tampoco es plug&play) y su permanente evolución. Y, en muchos casos, salir al mercado laboral en busca de profesionales sólidos y con experiencia real supondrá descubrir una escasez que dificulta su incorporación.

Todos estos factores, junto con otros muchos como el movimiento a la nube de los procesos de negocio, son los que han impulsado el nacimiento y crecimiento de propuestas de plataformas big data como servicio (as a service). Cada una de ellas pone el foco en aspectos diferentes (integración con un amplio ecosistema de plataformas y servicios, pago por el tiempo de uso, interfaces gráficos y sencillos para la administración, distintas modalidades para cubrir el mayor espectro de necesidades, personal con amplia capacitación y experiencia en la administración y uso para ajustarla a lo que cada caso requiere, etc.), pero todas pretenden facilitar la entrada de big data en el mayor número posible de empresas, democratizar su uso.

Conforme big data vaya popularizándose (con casos de uso reales y rentables) más allá de las grandes corporaciones, su propia naturaleza (enormes volúmenes de información, en rápido crecimiento, multitud de herramientas en proceso de consolidación, necesidad de contar con un equipo experimentado para la gestión y administración) impulsará un mayor uso de soluciones en modo servicio, no solo como prueba de concepto, sino para un ámbito productivo.

Telefónica acaba de lanzar, con HPE como socio tecnológico, la plataforma de Big Data Hortonworks de Hadoop para ayudar a las compañías a optimizar sus recursos y procesos empresariales, agilizar la toma de decisiones e incluso emprender nuevos retos de negocio, a través de la analítica predictiva.

Imagen: Elco van Staveren

Sobre el autor

José Enrique García Caballero

José Enrique García Caballero

Soy ingeniero superior de Telecomunicaciones por la Universidad Politécnica de Madrid. Desde hace más de dos años trabajo, dentro de marketing de infraestructuras para grandes clientes, en la aventura de entender para qué puede servir big data y qué plataformas como servicio interesan a los clientes para sus proyectos. Y en esas ando metido, aprendiendo cosas casi a diario. Si algún día pudiese relacionar big data con cómo mejorar como actor aficionado que soy sería todo un logro.
Ver todos sus artículos »