
Aprende con un docente certificado en AWS Data Analytics y trabaja implementando arquitecturas Big Data & Analytics.

Dirigido a:
Esta especialización está destinado a:
- Profesionales de TI
- Ingenieros de datos / arquitectos de datos
- Científicos de datos
- Analistas de datos
- Arquitectos de soluciones
Objetivos de la especialización:
- Conocer los servicios de Big Data en AWS
- Implementar arquitecturas serverless robustas y escalas con las mejores prácticas recomendadas por AWS
- Desplegar un Data Lakehouse, Data Lake Empresarial y Data Warehouse
- Desarrollar pipeline de datos con Apache Airflow y Step Functions
- Procesar grandes volúmenes de datos con Apache Spark, Spark Streaming y Apache Hudi
- Visualizar datos con QuickSight y Apache Superset
- Aprender a desplegar arquitecturas con Infraestructura como Código
- Utilizar AWS Glue para automatizar cargas de trabajo de ETL.
Requisitos:
- No es necesario tener experiencia en AWS, iremos desde un nivel básico a intermedio.
- Cuenta en AWS
Temario:
Módulo I: Fundamentos de Cloud Computing y Big Data
- ¿Qué es Cloud Computing?
- Tipos de Cloud
- Big Data
- Fases de una solución Big Data
- Overview de los servicios de Big Data en AWS
Módulo II: Ingesta de datos
- Kinesis Data Firehose (Workshop: Construyendo un flujo de datos en near real time, obtención de datos de dispositivos IoT)
- Kinesis Data Streams (Workshop: Construyendo un flujo de datos realtime)
- DMS (Workshop: Migrando una base de datos RDS MySQL a Aurora)
- AWS IoT Core (Workshop: Enviando datos a AWS IoT Core)
- Test Módulo II

Módulo III: Almacenamiento y gestión de datos
- DynamoDB (Workshop: Creando tablas en DynamoDB, uso del SDK para ingesta y consultas de datos)
- S3 (Workshop: Creando buckets en S3, configuración del versionamiento y reglas de ciclo de vida de objetos y publicación de una página web)
- Keyspaces (Cassandra) (Workshop: Creando un keyspaces y tabla, ingesta de datos usando comandos de Cassandra)
- Test Módulo III

Módulo IV: Procesamiento de datos
- Lambda (Workshop: Implementado una arquitectura de ingesta en real time con alertas por correo, usando Kinesis Data Streams, Lambda, DynamoDB, SNS, IAM, CloudFormation)
- Glue (Workshop: Construyendo un Data Lake y una arquitectura ETL Serverless)
- EMR (Workshop: Creando un clúster Big Data en EMR, construyendo un procesamiento de datos realtime con Spark Streaming, usando AWS IoT Core, Kinesis Data Streams, Kinesis Data Firehose, DynamoDB, Lambda, SNS, S3 y CloudFormation)
- Workshop : Implementación de un Data Lakehouse con Apache Hudi (DMS, RDS, EMR, S3, CloudFormation)
- Glue DataBrew (Workshop: Transformando datos de partidas de ajedrez con Glue DataBrew)
- Step Functions (Workshop: Orquestando un pipeline de ingesta y transformación de datos usando Glue DataBrew, Athena y SNS)
- Workshop : Creando pipeline de datos con MWAA – Airflow
- Test Módulo IV

Módulo V: Análisis y visualización de datos
- Athena (Workshop: Creando esquema y tablas de schema, tablas en formato textfile, parquet y particionadas)
- Kinesis Data Analytics (Workshop: Implementando una arquitectura de detección de fraude en tiempo real con alertas, usando Kinesis Data Analytics, Kinesis Data Streams, Lambda, DynamoDB y CloudFormation)
- SageMaker
- Redshift (Workshop: Creando tablas en un clúster de RedShift, ingestando datos desde S3 y exportando datos de RedShift a S3 en formato parquet)
- ElasticSearch (Workshop: Implementando una arquitectura de análisis de sentimientos de tweets en tiempo real, usando ElasticSearch, Kibana, Lambda, Kinesis Data Streams, DynamoDB, SNS, Comprehend y CloudFormation)
- Comprehend
- Rekognition (Workshop: Construyendo una arquitectura serverless para la detección del uso de mascarillas en imágenes, usando Rekognition, Lambda, DynamoDB, SNS, S3 y CloudFormation)
- Transcribe (Workshop : Análisis de sentimientos de llamadas de un callcenter, usando Transcribe, Lambda, SNS, EventBridge, Comprehend)
- QuickSight (Workshop: Creando un Dashboard)
- Apache Superset (Workshop : Visualizando datos con Superset)

Módulo VI: Seguridad y otros
- IAM (Workshop: Administrando los accesos de grupos y usuarios en AWS, manejo permisos)
- KMS (Workshop: Encriptando objetos en S3 con KMS, integración con Lambda para lectura de datos cifrados)
- Secret Manager (Workshop: Creando y obteniendo secretos, integración con Kinesis Data Streams, Lambda, DynamoDB y CloudFormation)
- CloudFormation (En todos los workshop se manejará el concepto de Infraestructura como Código, para desplegar arquitecturas Big Data en cuestión de minutos)

Duración:
- La duración de la especialización es de 44 horas académicas.
- Todas las clases son grabadas y las puedes ver a tu ritmo
Instructor : Luis Grados Salinas
- Actualmente se desempeña como Data Managment & Engineering Lead en BREIN (BRECA), ayudando en la implementación de Estrategias de datos, Gobierno de datos, Arquitecturas de datos que contribuye a la organización a convertirse en Data Driven.
- Todos los días trabaja con los servicios de Big Data & Analytics en AWS.
- Máster en Digital Project Managment en IEBS Business School
- Máster en Internet de las Cosas – IoT por la Universidad Internacional de Valencia.
- Ha desarrollado proyectos Big Data en empresas del Perú y EEUU como BCP, Belcorp, Interbank y MetLife (empresa de seguros más grande de EEUU).
- https://www.linkedin.com/in/luisgrados
- Medium: https://medium.com/@luisgradossalinas
Certificaciones del docente

Inicio de clases: Hoy mismo, al realizar el pago tendrás accesos a todo el material de las sesiones y los más de 24 workshops.
Informes e inscripciones:
Correo: info@bigdataiot.cloud
Una vez realizado el pago, deberá enviar la siguiente información al correo info@bigdataiot.cloud
Nombres y apellidos
Celular
Empresa
Puesto actual
Universidad
Carrera
Testimonios de alumnos
Testimonios
Artículos en Medium del instructor
– Preparación para el examen de Data Analytics Specialty en AWS
– Construyendo un flujo de datos en tiempo real con Kinesis Data Streams, Lambda, DynamoDB y SNS
– AWS IoT, Raspberry Pi 4 : Obteniendo datos de un sensor de ultrasonido en tiempo real
– Arquitectura Serverless : Análisis de sentimiento de tweets en tiempo real