info@bigdataiot.cloud

Curso online: Especialización de Big Data en AWS – (2do grupo Inicio 03 de marzo)

24 horas

Dirigido a:

  • El curso está dirigido a todo tipo de perfiles
    que desean aprender a desarrollar soluciones Big Data en AWS. Aunque tiene un
    carácter técnico, orientado a perfiles como desarrolladores, ingenieros de
    datos,  científico de datos, etc. el
    curso puede ser de interés para consultores y analistas de negocio.

Objetivos del curso:

  • Aprender a manejar los servicios de AWS para
    desarrollar soluciones Big Data.
  • Desarrollar talleres prácticos en conjunto con
    el alumno.
  • Mostrar casos de usos reales en donde puede
    aplicar Big Data.

        Requisitos:

  • Tener una cuenta en AWS para desarrollar los
    talleres prácticos.
  • Aunque es preferible tener algo de experiencia
    en el ecosistema AWS, se dedicará una lección para realizar una introducción
    práctica a la consola de AWS.
  • Conocimiento básico de Linux y Python.

        Temario:

        Módulo I: Introducción a Big Data y
Cloud Computing

  • ¿Qué es Big Data?
  • Las V’s del Big Data
  • Características de una solución Big Data
  • Fases de una solución Big Data
  • Tipos de arquitectura Big Data
  • ¿Qué es Hadoop?
  • Datalake
  • ¿Qué es cloud computing?
  • Tipos de cloud
  • Overview de servicios Big Data en AWS
  • Consola, CLI, SDK
  • Test Módulo I

        Módulo II: Ingesta de datos

  • Kinesis Firehose (Laboratorio : Desarrollo de un flujo de datos en near real time)
  • Kinesis Streams (Laboratorio : Desarrollo de un flujo de datos en real time)
  • SQS (Laboratorio : Simulando el caso de Teleticket)
  • DMS
  • IoT (Laboratorio : Capturando datos de un sensor desde una Rasbperry Pi con AWS IoT)
  • Test Módulo II

        Módulo III: Almacenamiento

  • S3 (Laboratorio : Creación de bucket, versionado y reglas de ciclo de vida de objetos)
  • Glacier
  • DynamoDB (Laboratorio : Creación de tabla e inserción y consulta de datos)
  • MCS Managed Cassandra Service (Laboratorio : Creación de keyspace, tabla, ingesta y consultas en tabla)
  • Test Módulo III

        Módulo IV: Procesamiento

  • Lambda (Laboratorio : Integración con Kinesis Data Streams, DynamoDB y SNS, construyendo un flujo de datos en real time end to end)
  • Glue (Laboratorio : Creación de crawler y ETL)
  • Datapipeline (Laboratorio : Exportación de datos de DynamoDB a S3)
  • EMR (Laboratorio : Creación de clúster EMR, iniciando con Hue, uso de comandos básicos HDFS, ingesta de datos a Hive y procesamiento con Spark)
  • Overview Spark, Spark Streaming
  • Test Módulo IV

        Módulo V: Análisis

  • Kinesis Analytics (Laboratorio : Integración con Kinesis Data Analytics, Kinesis Data Streams, Lambda y SNS)
  • Redshift (Laboratorio : Creación de tablas en RedShift, ingesta de datos desde S3, exportación de datos de tablas a S3)
  • Athena (Laboratorio : Creación de schema, tablas en formato textfile, parquet y parquet con particionamiento)
  • ElasticSearch
  • Test Módulo V

        Módulo VI: Visualización

  • QuickSight (Laboratorio : Creación de Dashboard a partir de datos en Athena, S3, csv)
  • Test Módulo VI

        Módulo VII: Seguridad

  • KMS (Laboratorio : Encriptando objetos en S3 y encriptando texto con KMS)
  • CloudHSM
  • STS
  • CloudTrail
  • Test Módulo VI

        Módulo VIII: Lake Formation

  • Creando un lago de datos desde 0 (Laboratorio : Creación del lago de datos)
  • Test Módulo VII

          Duración:

  • La duración del curso online tiene 24 horas
  • Todas las clases serán en vivo y se grabarán para su posterior revisión,


  • Nombres y apellidos
  • Celular
  • DNI
  • Empresa
  • Puesto actual
  • Universidad
  • Carrera


 Inicio y horario de clases:

Inicio de clases: Martes 3 de marzo del 2020
Fin de clases: Jueves 26 de marzo del 2020
Serán 8 clases prácticas de 3 horas.
Las clases serán los días: 3, 5, 10, 12, 17, 19, 24 y 26 de marzo.

Horario: De 8pm a 11pm

Informes e inscripciones: