Aprende con un docente certificado en AWS Data Analytics y trabaja implementando arquitecturas Big Data & Analytics.

Dirigido a:

Esta especialización está destinado a:

  • Profesionales de TI
  • Ingenieros de datos / arquitectos de datos
  • Científicos de datos
  • Analistas de datos
  • Arquitectos de soluciones

Objetivos de la especialización:

  • Conocer los servicios de Big Data en AWS
  • Implementar arquitecturas serverless robustas y escalas con las mejores prácticas recomendadas por AWS
  • Desplegar un Data Lakehouse, Data Lake Empresarial y Data Warehouse
  • Desarrollar pipeline de datos con Apache Airflow y Step Functions
  • Procesar grandes volúmenes de datos con Apache Spark, Spark Streaming y Apache Hudi
  • Visualizar datos con QuickSight y Apache Superset
  • Aprender a desplegar arquitecturas con Infraestructura como Código
  • Utilizar AWS Glue para automatizar cargas de trabajo de ETL.

Requisitos:

  • No es necesario tener experiencia en AWS, iremos desde un nivel básico a intermedio.
  • Cuenta en AWS

Temario:

Módulo I: Fundamentos de Cloud Computing y Big Data

  • ¿Qué es Cloud Computing?
  • Tipos de Cloud
  • Big Data
  • Fases de una solución Big Data
  • Overview de los servicios de Big Data en AWS

Módulo II: Ingesta de datos

  • Kinesis Data Firehose (Workshop: Construyendo un flujo de datos en near real time, obtención de datos de dispositivos IoT)
  • Kinesis Data Streams (Workshop: Construyendo un flujo de datos realtime)
  • DMS (Workshop: Migrando una base de datos RDS MySQL a Aurora)
  • AWS IoT Core (Workshop: Enviando datos a AWS IoT Core)
  • Test Módulo II

Módulo III: Almacenamiento y gestión de datos

  • DynamoDB (Workshop: Creando tablas en DynamoDB, uso del SDK para ingesta y consultas de datos)
  • S3 (Workshop: Creando buckets en S3, configuración del versionamiento y reglas de ciclo de vida de objetos y publicación de una página web)
  • Keyspaces (Cassandra) (Workshop: Creando un keyspaces y tabla, ingesta de datos usando comandos de Cassandra)
  • Test Módulo III

Módulo IV: Procesamiento de datos

  • Lambda (Workshop: Implementado una arquitectura de ingesta en real time con alertas por correo, usando Kinesis Data Streams, Lambda, DynamoDB, SNS, IAM, CloudFormation)
  • Glue (Workshop: Construyendo un Data Lake y una arquitectura ETL Serverless)
  • EMR (Workshop: Creando un clúster Big Data en EMR, construyendo un procesamiento de datos realtime con Spark Streaming, usando AWS IoT Core, Kinesis Data Streams, Kinesis Data Firehose, DynamoDB, Lambda, SNS, S3 y CloudFormation)
  • Workshop : Implementación de un Data Lakehouse con Apache Hudi (DMS, RDS, EMR, S3, CloudFormation)
  • Glue DataBrew (Workshop: Transformando datos de partidas de ajedrez con Glue DataBrew)
  • Step Functions (Workshop: Orquestando un pipeline de ingesta y transformación de datos usando Glue DataBrew, Athena y SNS)
  • Workshop : Creando pipeline de datos con MWAA – Airflow
  • Test Módulo IV

Módulo V: Análisis y visualización de datos

  • Athena (Workshop: Creando esquema y tablas de schema, tablas en formato textfile, parquet y particionadas)
  • Kinesis Data Analytics (Workshop: Implementando una arquitectura de detección de fraude en tiempo real con alertas, usando Kinesis Data Analytics, Kinesis Data Streams, Lambda, DynamoDB y CloudFormation)
  • SageMaker
  • Redshift (Workshop: Creando tablas en un clúster de RedShift, ingestando datos desde S3 y exportando datos de RedShift a S3 en formato parquet)
  • ElasticSearch (Workshop: Implementando una arquitectura de análisis de sentimientos de tweets en tiempo real, usando ElasticSearch, Kibana, Lambda, Kinesis Data Streams, DynamoDB, SNS, Comprehend y CloudFormation)
  • Comprehend
  • Rekognition (Workshop: Construyendo una arquitectura serverless para la detección del uso de mascarillas en imágenes, usando Rekognition, Lambda, DynamoDB, SNS, S3 y CloudFormation)
  • Transcribe (Workshop : Análisis de sentimientos de llamadas de un callcenter, usando Transcribe, Lambda, SNS, EventBridge, Comprehend)
  • QuickSight (Workshop: Creando un Dashboard)
  • Apache Superset (Workshop : Visualizando datos con Superset)

Módulo VI: Seguridad y otros

  • IAM (Workshop: Administrando los accesos de grupos y usuarios en AWS, manejo permisos)
  • KMS (Workshop: Encriptando objetos en S3 con KMS, integración con Lambda para lectura de datos cifrados)
  • Secret Manager (Workshop: Creando y obteniendo secretos, integración con Kinesis Data Streams, Lambda, DynamoDB y CloudFormation)
  • CloudFormation (En todos los workshop se manejará el concepto de Infraestructura como Código, para desplegar arquitecturas Big Data en cuestión de minutos)

Duración:

  • La duración de la especialización es de 44 horas académicas.
  • Todas las clases son grabadas y las puedes ver a tu ritmo
Instructor : Luis Grados Salinas
  • Actualmente se desempeña como Data Managment & Engineering Lead en BREIN (BRECA), ayudando en la implementación de Estrategias de datos, Gobierno de datos, Arquitecturas de datos que contribuye a la organización a convertirse en Data Driven.
  • Todos los días trabaja con los servicios de Big Data & Analytics en AWS.
  • Máster en Digital Project Managment en IEBS Business School
  • Máster en Internet de las Cosas – IoT por la Universidad Internacional de Valencia.
  • Ha desarrollado proyectos Big Data en empresas del Perú y EEUU como BCP, Belcorp, Interbank y MetLife (empresa de seguros más grande de EEUU).
  • https://www.linkedin.com/in/luisgrados
  • Medium: https://medium.com/@luisgradossalinas

Certificaciones del docente

Inicio de clases: Hoy mismo, al realizar el pago tendrás accesos a todo el material de las sesiones y los más de 24 workshops.

Informes e inscripciones:

Correo: info@bigdataiot.cloud

Una vez realizado el pago, deberá enviar la siguiente información al correo info@bigdataiot.cloud
 Nombres y apellidos
 Celular
 Empresa
 Puesto actual
 Universidad
 Carrera

Especialización de Big Data Analytics en AWS
$300


Testimonios de alumnos
Testimonios

Artículos en Medium del instructor
– Preparación para el examen de Data Analytics Specialty en AWS
– Construyendo un flujo de datos en tiempo real con Kinesis Data Streams, Lambda, DynamoDB y SNS
– AWS IoT, Raspberry Pi 4 : Obteniendo datos de un sensor de ultrasonido en tiempo real
– Arquitectura Serverless : Análisis de sentimiento de tweets en tiempo real