Aprende con un docente certificado en AWS Data Analytics y trabaja todos los días implementando arquitecturas Big Data & Analytics.

Dirigido a:

Esta especialización está destinado a:

  • Profesionales de TI
  • Ingenieros de datos / arquitectos de datos
  • Científicos de datos
  • Analistas de datos
  • Arquitectos de soluciones

Objetivos de la especialización:

  • Implementar soluciones de AWS en un ecosistema de Big Data.
  • Conocer las diferencias que existen en los servicios que ofrece Google Cloud Platform y Azure.
  • Enviar datos por el protocolo MQTT usando el servicio de AWS IoT Core.
  • Conocer el concepto de Infraestructura como Código para el despliegue de las distintas arquitecturas Big Data planteadas.
  • Utilizar análisis de datos en memoria con Spark en Amazon EMR.
  • Desarrollo de flujo de datos en real time y en near real time.
  • Orquestar pipeline de ingesta de datos con Step Functions y Glue DataBrew.
  • Identificar los beneficios de utilizar Amazon Kinesis para un procesamiento de Big Data en tiempo real.
  • Utilizar AWS Glue para automatizar cargas de trabajo de ETL.
  • Utilizar software de visualización para describir datos y consultas con Amazon QuickSight.

Requisitos:

  • No es necesario tener experiencia en AWS, iremos desde un nivel básico a intermedio.

Temario:

Módulo I: Introducción a Big Data y Cloud Computing (Clases asíncronas)

  • Big Data
  • Etapas de una solución de Big Data
  • ¿Qué es Cloud Computing?
  • Tipos de Cloud
  • Overview de los servicios de Big Data en AWS
  • Test Módulo I

Módulo II: Colección de datos

  • Kinesis Data Firehose (Workshop: Construyendo un flujo de datos en near real time, obtención de datos de dispositivos IoT)
  • Kinesis Data Streams (Workshop: Construyendo un flujo de datos realtime)
  • DMS (Workshop: Migrando una base de datos RDS MySQL a Aurora)
  • AWS IoT Core (Workshop: Enviando datos a AWS IoT Core y monitoreo en tiempo real con ElasticSearch – Kibana)
  • Test Módulo II

Módulo III: Almacenamiento y gestión de datos

  • DynamoDB (Workshop: Creando tablas en DynamoDB, uso del SDK para ingesta y consultas de datos)
  • S3 (Workshop: Creando buckets en S3, configuración del versionamiento y reglas de ciclo de vida de objetos y publicación de una página web)
  • Keyspaces (Cassandra) (Workshop: Creando un keyspaces y tabla, ingesta de datos usando comandos de Cassandra)
  • Test Módulo III

Módulo IV: Procesamiento de datos

  • Lambda (Workshop: Implementado una arquitectura de ingesta en real time con alertas por correo, usando Kinesis Data Streams, Lambda, DynamoDB, SNS, IAM, CloudFormation)
  • EMR (Workshop: Creando un clúster Big Data en EMR, construyendo un procesamiento de datos realtime con Spark Streaming, usando AWS IoT Core, Kinesis Data Streams, Kinesis Data Firehose, DynamoDB, Lambda, SNS, S3 y CloudFormation)
  • Glue (Workshop: Construyendo un Data Lake y una arquitectura ETL Serverless)
  • Glue DataBrew (Workshop: Preprocesando datos referentes al COVID19 extraídos de Data Exchange)
  • Step Functions (Workshop: Orquestando un pipeline de ingesta y transformación de datos usando Glue DataBrew, Athena y SNS)
  • Test Módulo IV

Módulo V: Análisis y visualización de datos

  • Athena (Workshop: Creando esquema y tablas de schema, tablas en formato textfile, parquet y particionadas)
  • Kinesis Data Analytics (Workshop: Implementando una arquitectura de detección de fraude en tiempo real con alertas, usando Kinesis Data Analytics, Kinesis Data Streams, Lambda, DynamoDB, SNS y CloudFormation)
  • SageMaker
  • Redshift (Workshop: Creando tablas en un clúster de RedShift, ingestando datos desde S3 y exportando datos de RedShift a S3 en formato parquet)
  • ElasticSearch (Workshop: Implementando una arquitectura de análisis de sentimientos de tweets en tiempo real, usando ElasticSearch, Kibana, Lambda, Kinesis Data Streams, DynamoDB, SNS, Comprehend y CloudFormation)
  • Comprehend
  • Rekognition (Workshop: Construyendo una arquitectura serverless para la detección del uso de mascarillas en imágenes, usando Rekognition, Lambda, DynamoDB, SNS, S3 y CloudFormation)
  • QuickSight (Workshop: Creando un Dashboard desde datos almacenados en S3 y csv adjuntos)

Módulo VI: Seguridad y otros

  • IAM (Workshop: Administrando los accesos de grupos y usuarios en AWS, manejo permisos)
  • KMS (Workshop: Encriptando objetos en S3 con KMS, integración con Lambda para lectura de datos cifrados)
  • Secret Manager (Workshop: Creando y obteniendo secretos, integración con Kinesis Data Streams, Lambda, DynamoDB y CloudFormation)
  • CloudFormation (En todos los workshop se manejará el concepto de Infraestructura como Código, para desplegar arquitecturas Big Data en cuestión de minutos)
  • SNS
  • Fargate

Duración:

  • La duración de la especialización es de 46 horas académicas.
  • Todas las clases serán en vivo y se grabarán para su posterior revisión.
Docente : Luis Grados Salinas
  • Actualmente se desempeña como líder técnico de proyectos Big Data y Analytics en Interbank, es certificado como Data Analytics Specialty, Arquitecto de Soluciones asociado por AWS.
  • Todos los días trabaja con los servicios de Big Data & Analytics en AWS.
  • Cuenta con un máster en Internet de las Cosas – IoT por la Universidad Internacional de Valencia.
  • Ha desarrollado proyectos Big Data en empresas del Perú como BCP, Belcorp, Interbank y también en EEUU.
  • https://www.linkedin.com/in/luisgrados

Certificaciones del docente

Inicio y horario de clases:

Inicio de clases: Viernes 21 de mayo del 2021
Fin de clases: Sábado 12 de junio del 2021
Los viernes clases serán de 8pm a 11pm (Hora UTC-5)
Los sábados serán de 9am a 2pm (Hora UTC-5)
Las clases serán los días: 21, 22, 28 y 29 de mayo; 4, 5 11 y 12 de junio del 2021.

Solo en el primer módulo las clases serán asíncronas, luego se realizarán en vivo.

Informes e inscripciones:

Correo: info@bigdataiot.cloud

Una vez realizado el pago, deberá enviar la siguiente información al correo info@bigdataiot.cloud
 Nombres y apellidos
 Celular
 Empresa
 Puesto actual
 Universidad
 Carrera

Especialización de Big Data & Analytics en AWS
$450


Testimonios de alumnos
Testimonios

Artículos en Medium del instructor
– Preparación para el examen de Data Analytics Specialty en AWS
– Construyendo un flujo de datos en tiempo real con Kinesis Data Streams, Lambda, DynamoDB y SNS
– AWS IoT, Raspberry Pi 4 : Obteniendo datos de un sensor de ultrasonido en tiempo real
– Arquitectura Serverless : Análisis de sentimiento de tweets en tiempo real