Detalle taller de Lic. Ernesto Mislej

Duración: 4 horas

Resumen:

En este tutorial se dará una introducción sobre los modelos de procesamiento distribuido para grandes volúmenes de información, haciendo énfasis en las herramientas open source y en particular en el ecosistema Hadoop (Map/Reduce, Pig, Spark, entre otros).

En la primera parte se describirán los modelos de procesamiento y los problemas que surgen al intentar aplicar las herramientas tradicionales sobre grandes volúmenes de datos. Se mostrarán las herramientas más utilizadas, las ventajas y desventajas de cada una y el mejor contexto de uso para cada una de ellas.

La segunda parte será de laboratorio. En una instalación de prueba los participantes podrán tomar contacto con las herramientas descriptas y las utilizarán para resolver problemas simples de ejemplo.