Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Programa del Curso
Introducción:
- Apache Spark en el ecosistema Hadoop
- Breve introducción para python, scala
Conceptos básicos (teoría):
- Arquitectura
- RDD
- Transformación y Acciones
- Etapa, tarea, dependencias
Uso del entorno Databricks comprender los conceptos básicos (taller práctico):
- Ejercicios con RDD API
- Funciones básicas de acción y transformación
- PairRDD
- Juntar
- Estrategias de almacenamiento en caché
- Ejercicios con la API de DataFrame
- ChispaSQL
- DataFrame: seleccionar, filtrar, agrupar, ordenar
- UDF (Función definida por el usuario)
- Examinando la API de DataSet
- Streaming
Uso del entorno de AWS Comprender la implementación (taller práctico):
- Conceptos básicos de AWS Glue
- Comprender las diferencias entre AWS EMR yAWS Glue
- Ejemplos de trabajos en ambos entornos
- Comprender los pros y los contras
Extra:
- Introducción a laorquestación Apache Airflow
Requerimientos
Habilidades de programación (preferiblemente python, scala)
SQL Conceptos básicos
21 Horas
Testimonios (3)
Having hands on session / assignments
Poornima Chenthamarakshan - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
1. Right balance between high level concepts and technical details. 2. Andras is very knowledgeable about his teaching. 3. Exercise
Steven Wu - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
Get to learn spark streaming , databricks and aws redshift