- Bienvenido
- Proceedings
- Inscripción
- App 44JAIIO
- Organizadores
- Simposios
- Conferencias
- Fechas importantes
- Programa
- Formatos
- Envío de trabajos
- Estudiantes voluntarios
- Sponsors
- Becas
- Auspicios
- Póster 44 JAIIO
- Hoteles y alojamientos
- Proceedings
Duración: 4 horas
Resumen:
En este tutorial se dará una introducción sobre los modelos de procesamiento distribuido para grandes volúmenes de información, haciendo énfasis en las herramientas open source y en particular en el ecosistema Hadoop (Map/Reduce, Pig, Spark, entre otros).
En la primera parte se describirán los modelos de procesamiento y los problemas que surgen al intentar aplicar las herramientas tradicionales sobre grandes volúmenes de datos. Se mostrarán las herramientas más utilizadas, las ventajas y desventajas de cada una y el mejor contexto de uso para cada una de ellas.
La segunda parte será de laboratorio. En una instalación de prueba los participantes podrán tomar contacto con las herramientas descriptas y las utilizarán para resolver problemas simples de ejemplo.