- Bienvenido
 - Proceedings
 - Inscripción
 - App 44JAIIO
 - Organizadores
 - Simposios
 - Conferencias
 - Fechas importantes
 - Programa
 - Formatos
 - Envío de trabajos
 - Estudiantes voluntarios
 - Sponsors
 - Becas
 - Auspicios
 - Póster 44 JAIIO
 - Hoteles y alojamientos
 - Proceedings
 
Duración: 4 horas
Resumen:
En este tutorial se dará una introducción sobre los modelos de procesamiento distribuido para grandes volúmenes de información, haciendo énfasis en las herramientas open source y en particular en el ecosistema Hadoop (Map/Reduce, Pig, Spark, entre otros).
En la primera parte se describirán los modelos de procesamiento y los problemas que surgen al intentar aplicar las herramientas tradicionales sobre grandes volúmenes de datos. Se mostrarán las herramientas más utilizadas, las ventajas y desventajas de cada una y el mejor contexto de uso para cada una de ellas.
La segunda parte será de laboratorio. En una instalación de prueba los participantes podrán tomar contacto con las herramientas descriptas y las utilizarán para resolver problemas simples de ejemplo.