<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>DEV Community: Laura Bolaños</title>
    <description>The latest articles on DEV Community by Laura Bolaños (@reinalau).</description>
    <link>https://dev.to/reinalau</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F3629379%2F49e3cfe8-aac1-4f47-b540-d042f1e6d241.jpg</url>
      <title>DEV Community: Laura Bolaños</title>
      <link>https://dev.to/reinalau</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://dev.to/feed/reinalau"/>
    <language>en</language>
    <item>
      <title>Pensar en Serverless para crear bellos sueños 🦋</title>
      <dc:creator>Laura Bolaños</dc:creator>
      <pubDate>Fri, 10 Apr 2026 12:56:18 +0000</pubDate>
      <link>https://dev.to/aws-builders/pensar-en-serverless-para-crear-bellos-suenos-390</link>
      <guid>https://dev.to/aws-builders/pensar-en-serverless-para-crear-bellos-suenos-390</guid>
      <description>&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fjkt4xky3sc2hei44br55.jpg" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fjkt4xky3sc2hei44br55.jpg" alt="Mariposa Monarca" width="688" height="742"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;En estas líneas te explico una sencilla arquitectura para desplegar un sitio web íntegramente utilizando servicios Serverless que podría servir, como en mi caso, para mostrarle al mundo mi interés por la ecología (con repositorio github incluido)&lt;/p&gt;
&lt;/blockquote&gt;

&lt;p&gt;En un mundo digital donde se crean productos financieros, web que muestran dashboard de eficiencias, p&amp;amp;L y todo tipo de temáticas asociada al dinero ...y que está muy bien! olvidamos que nuestro hábitat natural necesita ayuda.&lt;br&gt;
Hace unos años me percate de esto y comencé a leer/hablar de árboles, arbustos y plantas mal llamadas malezas - nativas de mi región que son fuente de alimento de mariposas e insectos que son fundamentales para la biodiversidad - que están desapareciendo con el avance de las especies exóticas, los agroquímicos y la destrucción de humedales.&lt;br&gt;
La mayoría de las personas cuando comentas la problemática te dice "OK estoy de acuerdo contigo" pero no activan en tener un pequeño jardín de nativas o a la hora de elegir un árbol para su vereda priorizan especies exóticas solo por estetica, sin saber que muchas nativas son igual de hermosas y además sostienen la fauna local (hablo especialmente de la Provincia de Buenos Aires, Argentina).&lt;/p&gt;

&lt;p&gt;....Y qué pasaría si cambio mi discurso en mi afán de convencer y digo: &lt;strong&gt;"si no ayudamos plantando nativas en nuestros hogares las mariposas pueden desaparecer"&lt;/strong&gt; ¿Suena drástico? pero en gran parte es cierto. Estudios afirman que la población ha disminuido muy rápido, especialmente la mariposa &lt;strong&gt;Bandera Argentina&lt;/strong&gt; debido a que no encuentra su planta nutricia (Coronillo) donde desovar sus huevos 💔 Cabe aclarar que la disminución de mariposas afecta directamente a la polinización y con esto atenta contra la seguridad alimentaria.&lt;br&gt;
Por todo lo anterior y para bajar un poco el dramatismo decidí hacer algo: crear un proyecto web que muestre mariposas e indique la planta nativa nutricia que alimenta sus orugas! Y que los usuarios registrados puedan cargar avistamientos de mariposas en la región. Para acompañar esta idea pensé en una arquitectura Serverless, que reduce la huella de carbono y acompaña mi pensamiento ecológico 🌱.&lt;/p&gt;

&lt;h2&gt;
  
  
  Comencemos analizando la arquitectura
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fksxqm8z5i19gaiscwxpi.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fksxqm8z5i19gaiscwxpi.png" alt="Diagrama de Arquitectura" width="800" height="509"&gt;&lt;/a&gt;&lt;br&gt;
Como podés observar el laboratorio es de un nivel entre 100 y 200 (si necesitas ayuda me comentas).&lt;br&gt;
Implementa una arquitectura Serverless de &lt;strong&gt;3 capas&lt;/strong&gt;:&lt;/p&gt;

&lt;p&gt;&lt;em&gt;Web Tier:&lt;/em&gt;&lt;br&gt;
&lt;strong&gt;S3-Sitio Web + CloudFront&lt;/strong&gt; ➡ contiene todo el sitio web creado con react. El código está preparado para integrar con los servicios &lt;strong&gt;Apigateway y Cognito&lt;/strong&gt;. Cloudfront servicio para servir el sitio web de S3. Este s3 no es público, solo se accede a través de Cloudfront.&lt;/p&gt;

&lt;p&gt;&lt;em&gt;App Tier:&lt;/em&gt;&lt;br&gt;
&lt;strong&gt;Cognito + API Gateway + Lambda&lt;/strong&gt; ➡ Cognito realiza la autenticación del usuario que se inicia sesión. Se aclara que los usuarios se deben crear manualmente por la Consola de AWS o por cli (explicado en el Readme de repositorio). Las Lambdas de crear imagen, get imagen, presigned_URL y delete imagen(funcionalidad no desarrollada aún desde el frontend) se invocan via Apigateway. Solo los usuarios autorizados por Cognito pueden acceder a estas funcionalidades.&lt;br&gt;
Las lambdas están codificadas en Python.&lt;/p&gt;

&lt;p&gt;&lt;em&gt;Data Tier:&lt;/em&gt;&lt;br&gt;
&lt;strong&gt;DynamoDB + S3 - imágenes&lt;/strong&gt; ➡ Toda la información de la fichas de las imágenes de mariposas se guarda en DynamoDB incluyendo la presigned-URL de S3-imagenes. En este último bucket se guardarán las imágenes de mariposas subidas por el usuario.&lt;br&gt;
Aunque &lt;strong&gt;Route53&lt;/strong&gt; aparece en el diagrama, en el repo no lo vas a ver codificado en la IaC. Por qué? porque para el entorno educativo del laboratorio no es necesario, con la url de cloudfront el sitio web queda totalmente funcional.&lt;/p&gt;

&lt;p&gt;⭐ El objetivo es construir una aplicación real con autenticación, subida de archivos y CRUD completo utilizando solo servicios serverless de AWS, con la opción de deployar en CloudFormation o Terraform. Porque también es muy importante aprender las diferentes formas de desplegar sin tocar el Console Home.&lt;/p&gt;

&lt;h2&gt;
  
  
  Como utilizar el repositorio de código
&lt;/h2&gt;

&lt;p&gt;✅ Ten en cuenta que como requisito para comenzar con este ejercicio necesitas instalado Python, Terraform, AWS Cli (todo explicadisimo en el repo 🤓)&lt;/p&gt;

&lt;p&gt;El código se encuentra en una url de un repositorio padre &lt;strong&gt;labs-aws-llb&lt;/strong&gt; donde hay otros laboratorios, pero el que nos interesa es: &lt;a href="https://github.com/reinalau/labs-aws-llb/tree/main/webAppServerless" rel="noopener noreferrer"&gt;webAppServerles&lt;/a&gt;.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;p&gt;Comenzar leyendo Arquitectura.md que explica un poco la secuencia de las acciones en los componentes y las decisiones de Arquitectura, como por ejemplo por qué no pasar las imagenes por el payload de Lambda.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;Leer el &lt;strong&gt;Readme.md&lt;/strong&gt; principal: contiene el paso a paso que debes hacer y si decides hacer el deploy con terraform o cloudformation te indicará ir a su correspondiente directorio. Cada directorio también contiene su Readme.md.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;Leer &lt;strong&gt;Integration.md&lt;/strong&gt; : te vas a encontrar que una vez deployada la IaC en AWS, solo necesitarás tomar los outputs de terraform o el descripción del stack de cloudformation y configurar el archivo &lt;strong&gt;aws-config.ts&lt;/strong&gt; . Luego volverás al &lt;strong&gt;Readme principal&lt;/strong&gt; para seguir el paso a paso ➡ volver a subir la web buildeada a S3 y crear una invalidación de CloudFront para actualizar la web integrada con el backend.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;El laboratorio tiene un costo mínimo (si estás en la capa gratuita cero) Como siempre recomiendo limpiar todo lo desplegado. Si estas pensando en crear una web funcional estable ten en cuenta los costos. Información detallada en Readme principal.&lt;/p&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Funcionalidades
&lt;/h2&gt;

&lt;p&gt;Una vez deployado el sitio web siguiendo las indicaciones, tenemos las siguientes funcionalidades.&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Feature&lt;/th&gt;
&lt;th&gt;Usuario anónimo&lt;/th&gt;
&lt;th&gt;Usuario logueado&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Ver catálogo de mariposas precargadas&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Ver galería de avistamientos de usuarios&lt;/td&gt;
&lt;td&gt;❌&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Subir foto + metadata de avistamiento&lt;/td&gt;
&lt;td&gt;❌&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Filtrar por ecorregión&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Ver ficha detallada de mariposa&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;td&gt;🦋&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Después de todo el trabajo... con la url de Cloudfront descubrirás esta hermosa web funcional de mariposas bonaerenses 💗 sustentada íntegramente con servicios serverless.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fmh01boamvwd9gosnvxog.jpg" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fmh01boamvwd9gosnvxog.jpg" alt="Imagen sitio web" width="800" height="953"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;En el título hablo de sueños porque realmente lo es, sueño que mis vecinos tengan aunque sea solo un ejemplar nativo. No hay estadística clara sobre la vegetación nativa, pero sabemos que las especies van retrocediendo y con esto también las mariposas.&lt;br&gt;
&lt;strong&gt;La foto principal es una Monarca del Sur recién nacida en mi jardín, ya que generé las condiciones para que eso pasara.&lt;/strong&gt;&lt;br&gt;
Este laboratorio sirve para mostrar que casi sin costo podemos difundir información sobre temas que nos favorecen a todos y a todas. Y en tu región, ¿qué mariposas habitan?&lt;/p&gt;

</description>
      <category>serverless</category>
      <category>aws</category>
      <category>architecture</category>
    </item>
    <item>
      <title>Claves para lograr la certificación AWS Data Engineer Associate</title>
      <dc:creator>Laura Bolaños</dc:creator>
      <pubDate>Fri, 20 Mar 2026 03:33:59 +0000</pubDate>
      <link>https://dev.to/aws-builders/claves-para-lograr-la-certificacion-aws-data-engineer-associate-bb7</link>
      <guid>https://dev.to/aws-builders/claves-para-lograr-la-certificacion-aws-data-engineer-associate-bb7</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;En este artículo encontrarás una guía para descubrir qué conocimientos necesitás antes de rendir el examen, identificar tus brechas y entender en qué temas profundizar. 🤓&lt;/p&gt;
&lt;/blockquote&gt;

&lt;h3&gt;
  
  
  Información general del examen
&lt;/h3&gt;

&lt;p&gt;La certificación esta orientada los Ingenieros de datos pero también a todos aquellos que están construyendo su perfil de Arquitecto Cloud.&lt;br&gt;
&lt;a href="https://aws.amazon.com/es/certification/certified-data-engineer-associate/" rel="noopener noreferrer"&gt;Aquí&lt;/a&gt;  podes encontrar datos generales del examen, intuyo que ya conoces esta información.&lt;br&gt;
La guia de examen consta de 4 dominios, es super necesario leer y revisar continuamente mientras estudias para la certificación: &lt;a href="https://docs.aws.amazon.com/aws-certification/latest/data-engineer-associate-01/data-engineer-associate-01.html" rel="noopener noreferrer"&gt;link &lt;/a&gt;&lt;br&gt;
El dato importante: el examen no esta disponible en español. Para todos los que tenemos dificultad con el idioma puede parecer un impedimento pero no te preocupes! estudiando y armando apuntes en ingles lo puedes lograr 🏆 Las preguntas se pueden comprender perfectamente porque se alcanza un nivel de familiaridad con frases claves del examen.&lt;br&gt;
⭐ Tip: lengua no nativa ingles ➡ pedir los 30 minutos adicionales (Exam acommodations) en la plataforma &lt;a href="https://www.aws.training/certification" rel="noopener noreferrer"&gt;Training And Certificacion&lt;/a&gt;  antes de agendar el examen.&lt;/p&gt;

&lt;h3&gt;
  
  
  Complejidad
&lt;/h3&gt;

&lt;p&gt;Si no trabajas como Data Engineer pero contas con un background en bases de datos, consultas sql complejas y performance tuning los contenidos te van a resultar familiares y sencillos de incorporar. Además, si contás con la certificación Solutions Architect Associate una parte del contenido ya lo habrás estudiado.&lt;/p&gt;

&lt;p&gt;⭐ Es una certificación importante y muy amena para estudiar, de complejidad media.&lt;/p&gt;

&lt;h3&gt;
  
  
  Cursos de preparación y laboratorios básicos
&lt;/h3&gt;

&lt;p&gt;➡ Curso en Skillbuilder de &lt;em&gt;&lt;a href="https://skillbuilder.aws/learn/6BP61KB1FJ/data-engineering-on-aws--foundations/KXCN4PJD9Y?parentId=7UPVWWCC45" rel="noopener noreferrer"&gt;Data Engineer Foundations&lt;/a&gt;&lt;/em&gt; . Es gratis y básico para esta certificación.&lt;br&gt;
➡ Curso en &lt;a href="https://skillbuilder.aws/learning-plan/QYZWVSMX4B/exam-prep-plan-aws-certified-data-engineer--associate-deac01--english/YTMBK7R698" rel="noopener noreferrer"&gt;SkillBuilder de preparación del examen&lt;/a&gt;. Es esencial ya que explica en que consiste el examen y lo que debemos estudiar. Si no contas con la suscripción haz todo el contenido libre, basicamente es la explicación de los 4 dominios.&lt;br&gt;
➡ Es necesario hacer laboratorios de diferentes casos de uso, tanto de Data Lakes como de DataWarehouse. Los laboratorios los encontras en SkillBuilder (ejemplo CloudQuest Data Analytics) o invertir unos dolares en la consola. Comparto laboratorio básico de mi &lt;a href="https://github.com/reinalau/labs-aws-llb/tree/main/serverless-aws-datalake-1" rel="noopener noreferrer"&gt;github &lt;/a&gt;&lt;/p&gt;

&lt;h3&gt;
  
  
  Método de estudio sugerido
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Armar un NotebookLM con tus apuntes y links a pdf de la &lt;a href="https://docs.aws.amazon.com/" rel="noopener noreferrer"&gt;documentación oficial de AWS&lt;/a&gt;. Particularmente recomiendo Developer Guide y/o User Guide de servicios como Glue, Redshift, Kinesis, Athena, QuickSigth, OpenSearch, Amazon MSK, LakeFormation, DataSync y todas las url que consideres. De esta manera construyes una especie de RAG para tener precisión a la hora de preguntar dudas conceptuales o de casos de uso.&lt;/li&gt;
&lt;li&gt;En el momento de practicar preguntas no te fies ciegamente de las respuestas de las IA, el último tiempo noté que algunos modelos tienen dificultades con temas de elección de arquitecturas. Verificar siempre con la documentación oficial, por eso es importante el punto anterior.&lt;/li&gt;
&lt;li&gt;Buscar un banco de preguntas para entrenar y conocer el estilo de examen. En mi caso utilicé &lt;a href="https://tutorialsdojo.com/" rel="noopener noreferrer"&gt;Tutoriales Dojo&lt;/a&gt;
&lt;/li&gt;
&lt;li&gt;Recursos útiles (lo utilicé en la preparación) :&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=s2DzF8avQnY" rel="noopener noreferrer"&gt;video banco de preguntas &lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=s2DzF8avQnY" rel="noopener noreferrer"&gt;video casos de uso &lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href="https://github.com/reinalau/AWS-Certified/tree/main/DEA-C01" rel="noopener noreferrer"&gt;github llb&lt;/a&gt; &lt;/p&gt;

&lt;h3&gt;
  
  
  Conocimientos fundamentales para presentar el examen
&lt;/h3&gt;

&lt;p&gt;Durante el examen prestar atención a palabras claves, pensar cual solución es mas lógica, más costo- efectiva, con menor esfuerzo operacional y con performance aceptable.&lt;br&gt;
El listado a continuación no cubre todo el temario, pero dominar estos temas es fundamental para aprobar:&lt;/p&gt;

&lt;h4&gt;
  
  
  Generales
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Datalake ➡ S3: raw, curation, consumption.&lt;/li&gt;
&lt;li&gt;DataWarehouse : Redshift. Siempre relacionado con queries complejas.&lt;/li&gt;
&lt;li&gt;Data Lakehouse.&lt;/li&gt;
&lt;li&gt;Patrones de ingesta de datos: Streaming y Batch.&lt;/li&gt;
&lt;li&gt;Atención en las preguntas donde se haga alusión a data lake o datawarehouse porque puede ser la clave para elegir el almacenamiento.&lt;/li&gt;
&lt;li&gt;Formatos de archivos para alimentar un Data Lake en S3: Json, Parquet, Avro, ORC, Csv. Sus casos de uso. Comprender mecanismo de construcción de su metadata. Formatos de Compresión gzip (ratio), snappy (rápidez), zlib.&lt;/li&gt;
&lt;li&gt;Elección de servicio para migrar archivos/datos desde el onprem. Probablemente la elección es DataSync.&lt;/li&gt;
&lt;li&gt;Data Skew: referido a una distribución desigual de los datos entre las diferentes unidades de procesamiento provocando un desequilibrio de carga.&lt;/li&gt;
&lt;li&gt;Métodos principales de orquestación de pipeline de datos: Step Functions, Glue Workflows (nativo para job de glue) y MWAA (dependencias complejas, portabilidad). Se pueden crear flujos y orquestarlos con Event Bridge.&lt;/li&gt;
&lt;li&gt;DynamoDb Stream. DynamoDB TTL.&lt;/li&gt;
&lt;li&gt;Conexion a RDS, Aurora, Redshift via api desde Lambda. Revisar ejemplos.&lt;/li&gt;
&lt;li&gt;Comprender el concepto DAGs (Directed Acyclic Graphs) y con qué servicios esta relacionado. Amazon MWAA&lt;/li&gt;
&lt;li&gt;Visualizacion-Dashboard ➡ QuickSigth . QuickSigth SPICE (relacion con Athena). Analizar diferentes casos de uso.&lt;/li&gt;
&lt;li&gt;QuickSigth librerias built-in functions and operators: utilidad en casos de uso que necesitamos Rolling Averages, Pivoting and Grouping y Machine Learning (ML) Insights.&lt;/li&gt;
&lt;li&gt;Opensearch: Creación de indices, monitorización de logs en tiempo real. UltraWarm en OpenSearch ➡ Conocer su caso de uso.&lt;/li&gt;
&lt;li&gt;Secrets Manager es nuestro servicio estrella para guardar accesos a base de dados de manera segura.&lt;/li&gt;
&lt;li&gt;Casos de uso de MSK (Kafka). Se asocia con Glue para transformar.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Amazon S3
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;S3 Storage Lens: Si tengo que hacer una auditoría de bucket, identificar versiones antiguas de objetos, partes incompletas, etc ➡ cuento con un dashboard para clarificar estas falencias.&lt;/li&gt;
&lt;li&gt;Tener claro todos los tipos o layers de S3, su tiempo de recuperación de datos y costos: S3 Standar, IA, Glacier Flexible, Glacier Deep Archive, Intelligent tearing y los otros que no son de alta disponibilidad. Ciclo de vida. Versionamiento. Dependiendo el caso de uso hay que optar.&lt;/li&gt;
&lt;li&gt;Cómo aplico encriptación en reposo en S3, DynamoDB. Siempre pensar en KMS pero NO con una clave proporcionada por el cliente porque es MÁS carga operacional (es lo que debemos evitar): en S3 ➡ SSE-KMS (claves gestionadas por AWS KMS con auditoría)&lt;/li&gt;
&lt;li&gt;Cifrado doble en S3 ➡ SE-KMS (cifrado de doble capa del lado del servidor con AWS KMS).&lt;/li&gt;
&lt;li&gt;VPC Endpoint GATEWAY . No tiene costo en S3 y otorga seguridad sin pasar por internet. Desde Glue se puede crear una conexión de red, especificar vpc/subnet. Mismo caso para conectar una lambda de manera segura a S3.&lt;/li&gt;
&lt;li&gt;Si tengo varias aplicaciones que consumen diferentes prefix de S3 cual es la mejor manera de brindar seguridad para que una aplicación no pueda ver los datos de otra? Probablemente la solución sea S3 Access Point&lt;/li&gt;
&lt;li&gt;Casos de uso de EDA (Event-Driven Architecture). Especialmente de S3, reconocer cuando conviene registrar un EventBridge y cuando reaccionar a una lambda (sin intermediarios).&lt;/li&gt;
&lt;li&gt;Modificación de objetos (datos) en S3 al momento de la recuperación, ejemplo: un caso de uso que deba enmascarar información ➡ Por medio de S3 Object Lambda.&lt;/li&gt;
&lt;li&gt;Técnicas de Performance en datos almacenados en S3: Bucketing y Partition (ver cardinalidades). Entender las diferencias y cuando se usa según el caso para poder responder con seguridad.&lt;/li&gt;
&lt;li&gt;Amazon Macie: tener claro que hace escaneo, descubrimiento y clasificacion de información sensible cuando los datos ya están alojados en S3. Puede integrarse con EventBridge para realizar acciones sobre los hallazgos.&lt;/li&gt;
&lt;li&gt;SQL S3 ➡ solo puede consultar un unico archivo. Util para consultas adhoc de un dato en particular.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Amazon Glue
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Glue Engine: Spark, Ray (computación paralela/intensiva) y Python Shell (ejecuciones sencillas).&lt;/li&gt;
&lt;li&gt;Glue ETLs. Glue Crawler (identificación de metadata en varios origenes). Programación de cron. DynamicFrames.&lt;/li&gt;
&lt;li&gt;Glue Dynamic Schema (Schema Evolution). Relacion con AVRO.&lt;/li&gt;
&lt;li&gt;Glue Data Catalog (recordar que no solo se usa en el scope de Glue sino que también se integra con EMR). Schema version history.&lt;/li&gt;
&lt;li&gt;Glue DataBrew - relacionado con Data Quality pero es herramienta visual no-code. Conocer la sintaxis de rules. Conviene hacer laboratorios o al menos revisar la consola de AWS. En qué casos de uso podemos arreglar los datos. Recordar que está vinculado con SageMaker AI en la preparación de datos para entrenar modelos.&lt;/li&gt;
&lt;li&gt;Permite hacer Custom rules.&lt;/li&gt;
&lt;li&gt;AWS Glue Data Quality. Es una capacidad diferentes al punto anterior. Utiliza DQDL para definir reglas de validación.&lt;/li&gt;
&lt;li&gt;Glue Workflows (usar cuando orquestamos solo job de Glue, si vemos que tenemos que orquestar Lambdas la opción correcta probablemente sea Step Functions).&lt;/li&gt;
&lt;li&gt;Glue Bookmark. Si lo tengo activado y el job vuelve a procesar los datos nuevamente...que puede estar pasando? falta job.commit().&lt;/li&gt;
&lt;li&gt;Desde un bucket policy se puede denegar ejecuciones de glue que no esten desde un rango horario determinado, ejemplo: "StringNotEquals":{},"NumericGreaterThan":{"aws:CurrentTime":"11:00:00Z"},"NumericLessThan":{"aws:CurrentTime":"09:00:00Z"}} . Ver casos de policy en S3, es la parte de seguridad mas importante del examen.&lt;/li&gt;
&lt;li&gt;Comprender permisos de ejecucion en Glue mediante roles y politica de confianza (Trust Policy): AWSServiceRole (tiene las politicas básicas).&lt;/li&gt;
&lt;li&gt;Si tengo que monitorear job de Glue, a donde voy? lo hago en Glue Studio ➡Job monitoring dashboard (no desde Cloudwatch). Hacer laboratorio con Glue y revisar las métricas, ejecuciones anteriores. Este analisis sirve para ajustar dpu o workers.&lt;/li&gt;
&lt;li&gt;Glue transformación de datos JSON a Tabular : Relationalize Transform.&lt;/li&gt;
&lt;li&gt;Feature Transformación Detect PII (o Detect Sensitive Data): Accion de enmascarar, redactar o eliminar.&lt;/li&gt;
&lt;li&gt;Glue Interactive Sessions.&lt;/li&gt;
&lt;li&gt;Glue Flex. Usa capacidad de computación ociosa por lo tanto es menos costoso.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Amazon Redshift
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Redshift sintaxis sql: practicar select, agrupaciones, rank() y funciones más comunes. Sintaxis UDF (se invocan en la proyeccción). Entender que las búsquedas con expresiones regulares son más lentas.&lt;/li&gt;
&lt;li&gt;Redshift comandos: COPY (se usa para traer rápidamente datos desde S3) ➡Option: PARALLEL y COMPUPDATE. Unload (se usa para descargar datos a S3, generalmente históricos).&lt;/li&gt;
&lt;li&gt;Redshift leader nodes y compute nodes. Entender cómo trabaja para tener la capacidad de responder preguntas de performance.&lt;/li&gt;
&lt;li&gt;Redshift Spectrum, está pensando para consultar S3 Y Redshift. No confundir con consultas federadas. Por lo general se usa Spectrum cuando redshift descarga registros antiguos en s3 para abaratar costos y se requiere algún informe que cruce con datos históricos.&lt;/li&gt;
&lt;li&gt;Redshift consultas federadas vs Athena federated queries. Se puede presentar una pregunta con estas dos opciones. Leer el caso de uso y tener en claro que soporta cada una. Ejemplo, Redshift queries federadas no soportas consultas en TimeStream.&lt;/li&gt;
&lt;li&gt;Redshift Distribution Style : entender que es Auto Distribution, ALL, Even, Key. Esto se aplica para hacer performantes las querys. Relacionar con Star Schemas.&lt;/li&gt;
&lt;li&gt;Redshift: Ingesta de datos en formato JSON, cómo se almacena/consulta de forma performante? Con el tipo de dato SUPER, se crea una tabla con una única columna y se puede realizar consultas anidadas (se usa PARTITION BY y funciones como like json_extract_path_text).&lt;/li&gt;
&lt;li&gt;Data Sharing: Redshift comparte información entre cluster. Ver casos de uso.&lt;/li&gt;
&lt;li&gt;Vistas materializadas. Como las construye. En qué casos de uso se utilizan. Cómo se refrescan.&lt;/li&gt;
&lt;li&gt;Redshift troubleshooting: Tabla de sistema STL_ALERT_EVENT_LOG. Maximum Transmission Unit (MTU). VACCUM, VACCUM FULL, VACCUM DELETE ONLY y VACCUM REINDEX.&lt;/li&gt;
&lt;li&gt;Redshift Workload Management. Determina como se ejecutan las consultas en el cluster (query queues and route queries).&lt;/li&gt;
&lt;li&gt;MPP (Massively Parallel Processing) y Windows Functions.&lt;/li&gt;
&lt;li&gt;Dynamic Data Masking - DDM (CREATE MASKING POLICY) ➡ Permite ocultar, ofuscar o seudonimizar datos. Se pueden restringir a usuarios o a roles específicos.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Kinesis Data Stream - Kinesis Firehose - Amazon Managed Service for Apache Flink (Ex Kinesis Data Analytics)
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Tener claro conceptualmente los 3 servicios del título. Real time y Near real time.&lt;/li&gt;
&lt;li&gt;Amazon Managed Service for Apache Flink: Detectar anomalias o casos de uso de Fraude. Windows Operations (defining time-based or row-based windows to manage data streams)&lt;/li&gt;
&lt;li&gt;Mirar todos los casos de ingesta Kinesis Data Stream (pensar que siempre es real time). Puede ingestar a Redshift directamente con Redshift Streaming (es zero etl).&lt;/li&gt;
&lt;li&gt;Analizar Casos de Uso de streaming de IoT. Velocidad de Transmisión de datos- Registros por segundo.&lt;/li&gt;
&lt;li&gt;Performance en streaming de datos: Kinesis Producer Library (KPL) y Kinesis Client Library (KCL). Shared Fan-out&lt;/li&gt;
&lt;li&gt;Partition key de alta cardinalidad para distribuir la carga de forma equitativa en los diferentes shard.&lt;/li&gt;
&lt;li&gt;Resolución de problemas en Kinesis Data Stream ➡ si la velocidad de los datos supera la capacidad de los fragmentos actuales: ProvisionedThroughput - Exceeded Exception.&lt;/li&gt;
&lt;li&gt;Caso de uso Kinesis Firehose + Lambda para transformación de datos.&lt;/li&gt;
&lt;li&gt;Integración Kinesis Firehose con CloudTrail.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Lake Formation
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Lake Formation, si hay preguntas sobre permisos granulares considerar que la respuesta es esta. Tener en cuenta todo lo que puede gobernar Lake Formation (qué fuentes de datos).&lt;/li&gt;
&lt;li&gt;Fine-Grained Access Control (FGAC). Tag-Based Access Control (LF-TBAC). Credential Vending.&lt;/li&gt;
&lt;li&gt;Blueprints and Workflows: Templates que ayudan a ingestar datos desde varias fuentes para crear automaticamente AWS Glue crawlers, jobs, and triggers.&lt;/li&gt;
&lt;li&gt;Auditoría via CloudTrail.&lt;/li&gt;
&lt;li&gt;CloudTrail Lake: observalidad de como interactúa el ecosistema de AWS. Centralidad de logs. SQL Engine. Seguridad Granular.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  EMR
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Comprender los casos de uso EMR. Es la opcion de procesamiento de datos mas costosa para mantener (para que viva la metadata hay que tener prendido el cluster). Puede ser la elección adecuado si se requiere control profundo sobre la infraestructura, configuraciones personalizadas (flexibilidad) o el uso del ecosistema completo de Hadoop para migraciones de datos.&lt;/li&gt;
&lt;li&gt;Relación con BigData. Procesamiento Distribuido.&lt;/li&gt;
&lt;li&gt;EMR puede usar Glue Catalog.&lt;/li&gt;
&lt;li&gt;Mirar la combinación de cómputo recomendada para brindar alta disponibilidad y cost effective. Instancias Spot y Procesadores Graviton.&lt;/li&gt;
&lt;li&gt;EMR: feature security configuration para setear encriptación tanto en reposo como en tránsito.&lt;/li&gt;
&lt;li&gt;EMR Serverless. Casos de uso. Entender en cual caso conviene utilizar en lugar de EMR Standard.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Amazon Athena
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;"Analizar datos con sql" la respuesta es Athena.&lt;/li&gt;
&lt;li&gt;Tablas en Athena que se pueden modificar : Apache Iceberg.&lt;/li&gt;
&lt;li&gt;Athena predicate pushdown*&lt;em&gt;.&lt;/em&gt;*&lt;/li&gt;
&lt;li&gt;Athena Parallel Execution.&lt;/li&gt;
&lt;li&gt;Consultas anidadas en Athena (nested), como hacer performante y fácil. View por cada consulta.&lt;/li&gt;
&lt;li&gt;Athena federated Query.&lt;/li&gt;
&lt;li&gt;Athena ➡ queries lentas, están mal las particiones que estoy tomando para filtrar. Uso Partition Projection en base a los accesos.&lt;/li&gt;
&lt;li&gt;Glue Notebooks y Athena Notebooks: cuando se usa cada uno?&lt;/li&gt;
&lt;li&gt;CTAS (Create Table as Select)&lt;/li&gt;
&lt;li&gt;Athena Federated Query por medio de Lambda.&lt;/li&gt;
&lt;li&gt;Athena Workgroups &lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  DMS - STC -CDC
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Migrar a una base de datos en la nube o desde onprem, la mejor elección es DMS. Si no hay homogeneidad en la base de datos origen con la de destino se debe usar STC (AWS Schema Conversion tool). Para replicar datos evitando downtime en la base de datos se replica con CDC (change data capture). Este último se realiza con los logs full de transacciones activado en la base de datos origen.&lt;/li&gt;
&lt;li&gt;En los casos de uso de migración de bases de datos homogéneas solo se usa DMS + DMS Schema Conversion y cdc (change data capture) para los cambios.&lt;/li&gt;
&lt;li&gt;Cuando tengo dos regiones y se quiere migrar una base de datos en la región A con destino en la región B, DMS debe ubicarse idealmente en la región donde está la base de datos de destino o en una región cercana para minimizar la latencia de escritura.&lt;/li&gt;
&lt;/ol&gt;

&lt;h4&gt;
  
  
  Cloudwatch - CloudTrail
&lt;/h4&gt;

&lt;ol&gt;
&lt;li&gt;Comprender cuándo utilizar CloudWatch, ejemplo ➡ si necesito analizar/buscar con lenguaje sql uso Amazon CloudWatch Logs Insights. Metrics Filters y Subscription Filter.&lt;/li&gt;
&lt;li&gt;Creación de Train en CloudTrail. Mecanismo de envío de datos (a S3) y consultas.&lt;/li&gt;
&lt;li&gt;En CloudTrail puedo direccionar el logueo de la actividad de cuentas y/o servicios a un S3 y analizar los datos mediante Athena.&lt;/li&gt;
&lt;li&gt;CloudTrail caso de uso testigo: a. CloudTrail capta eventos de Redshift, b. por medio de Reglas de EventBridge guarda esos logs en DynamoDB. También EventBridge Pipes puede filtrar contenido de eventos.&lt;/li&gt;
&lt;/ol&gt;

</description>
      <category>aws</category>
      <category>dataengineering</category>
      <category>awscertified</category>
    </item>
    <item>
      <title>Camino a lograr AWS Certified Developer - Associate (DVA-C02)</title>
      <dc:creator>Laura Bolaños</dc:creator>
      <pubDate>Tue, 17 Mar 2026 14:23:20 +0000</pubDate>
      <link>https://dev.to/aws-builders/camino-a-lograr-aws-certified-developer-associate-dva-c02-4o19</link>
      <guid>https://dev.to/aws-builders/camino-a-lograr-aws-certified-developer-associate-dva-c02-4o19</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;Estas notas no intentan ser una guía detallada, sino un recorrido por temas importantes y tips que debemos tener en cuenta si nos aventuramos a estudiar esta certificación. También es importante aclarar que se trata de una visión subjetiva acerca de la complejidad del examen, basada en mi experiencia después de haber obtenido 3 certificaciones previas de AWS.&lt;/p&gt;
&lt;/blockquote&gt;

&lt;h2&gt;
  
  
  Información general del examen
&lt;/h2&gt;

&lt;p&gt;No me voy a detener en esta descripción porque está claramente escrito en este &lt;a href="https://aws.amazon.com/es/certification/certified-developer-associate/" rel="noopener noreferrer"&gt;enlace que debes leer&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;⭐ &lt;strong&gt;Tip&lt;/strong&gt;: si tu lengua no es ingles nativa, pedir 30 minutos adicionales (Exam acommodations) en la plataforma &lt;em&gt;&lt;a href="https://www.aws.training/certification" rel="noopener noreferrer"&gt;Training And Certificacion&lt;/a&gt;&lt;/em&gt; antes de agendar el examen, sin importar si se rinde en ingles o español.&lt;br&gt;
Esta selección se realiza en la opción de menú marcada y queda seleccionada por default para todas las futuras certificaciones de AWS.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fpopczz0kjfyxxqieunl0.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fpopczz0kjfyxxqieunl0.png" alt="tc" width="215" height="398"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Complejidad
&lt;/h2&gt;

&lt;p&gt;AWS Developer Associate &amp;lt; AWS Solutions Architect Associate&lt;br&gt;
AWS Developer Associate &amp;gt; AWS Cloud Practtioner&lt;br&gt;
AWS Developer Associate &amp;lt; AWS AI Practitioner&lt;/p&gt;

&lt;h2&gt;
  
  
  Relación con certificaciones anteriores
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F13uk85wqrzw15ryy8sn3.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F13uk85wqrzw15ryy8sn3.png" alt="comparativa certificaciones" width="720" height="330"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Cuál es tu punto de partida?
&lt;/h2&gt;

&lt;ol&gt;
&lt;li&gt;&lt;p&gt;Leer la guía de examen para tener una visión general del contenido que debemos abordar de los 4 dominios, cada dominio tiene un % diferente de cobertura en la certificación. No te desanimes si a priori pensas que tu perfil no es el del candidato que se describe en la guía, yo tampoco lo soy 100%, pero con ganas y entusiasmo para aprender → llegarás a la meta!!.&lt;br&gt;
&lt;a href="https://d1.awsstatic.com/es_ES/training-and-certification/docs-dev-associate/AWS-Certified-Developer-Associate_Exam-Guide.pdf" rel="noopener noreferrer"&gt;guía del examen&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;Learning plan de preparación de AWS SkillBuilder. No importa si no contas con la suscripción, haz lo que este sin costo. Es una forma de nivelar tus conocimientos.&lt;br&gt;
Lo bueno de la suscripción es que accedes a varios laboratorios útiles pero no es un impedimento. Si haces practicas de laboratorios por cuenta propia necesitarás una inversión mínima en la consola de AWS de 1 a 3 usd.&lt;br&gt;
&lt;a href="https://skillbuilder.aws/learning-plan/ZWHYYQBTUK/exam-prep-plan-aws-certified-developer--associate-dvac02--espaol-latam/UD82VTBREP" rel="noopener noreferrer"&gt;Exam Prep Plan: AWS Certified Developer — Associate&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;⭐ Cuando comiences el punto 2, recomiendo armar planilla de calculo de “brechas de conocimiento” e indicar como vas a cubrir ese gap (con laboratorios, documentación de AWS o practicando preguntas de examen).&lt;/p&gt;

&lt;h2&gt;
  
  
  Claves fundamentales para presentar el examen
&lt;/h2&gt;

&lt;p&gt;En esta sección se listan los conocimientos clave que debemos profundizar para alcanzar la certificación. Como siempre, es fundamental tener una perspectiva de seguridad para los diferentes servicios de AWS: quién puede invocar cada servicio y qué acciones puede realizar una vez invocado → aplicando el Principio del Mínimo Privilegio.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;Desarrollo con Lambda:&lt;/strong&gt; si crees que por lanzar una lambda via consola o cloudformation ya tenes todo el conocimiento…pues no es así. Hay que profundizar y tener practica de laboratorios pasando por la mayoría de sus features:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Versiones Lambda — Alias Lambda-Integraciones (como se usan?). Pruebas de dev y prod con alias. Alias ponderados (como usar?).&lt;/li&gt;
&lt;li&gt;Tiempo de Espera Lambda.&lt;/li&gt;
&lt;li&gt;Variables de Entorno (se cifran? ).&lt;/li&gt;
&lt;li&gt;Concurrencia Aprovisionada y Concurrencia Reservada. (diferencia y sus casos de uso).&lt;/li&gt;
&lt;li&gt;DLQ (cuando se usa).&lt;/li&gt;
&lt;li&gt;Triggers. Lambda Source Events (EventSourceMaping).&lt;/li&gt;
&lt;li&gt;Logueo en &lt;strong&gt;CloudWatch&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;Limites y quotas Lambda&lt;/li&gt;
&lt;li&gt;Lambda layers (para que se usan).&lt;/li&gt;
&lt;li&gt;Lambda VPC (cuando y como se usa).&lt;/li&gt;
&lt;li&gt;Eficiencia Lambda (memoria? codigo?)&lt;/li&gt;
&lt;li&gt;Almacenamiento interno /tmp (limites y en que casos es util).&lt;/li&gt;
&lt;li&gt;Manejo de errores. Retroceso exponencial.&lt;/li&gt;
&lt;li&gt;Payload de entrada y de salida.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐ Tip: para cubrir la mayoría de teoría de lambda con demostraciones, ver &lt;a href="https://youtu.be/JIUdRraTZRw?si=S5X6S8j65sd2rwuc" rel="noopener noreferrer"&gt;video Joan Amengual&lt;/a&gt;.&lt;br&gt;
⭐ No dejes de hacer laboratorios o pequeñas pruebas tomando un lenguaje de programación soportado, en mi caso elegí Python.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;DynamoDB:&lt;/strong&gt; Conocimiento profundo del servicio.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Clave sencilla (único atributo) y compuesta (2 atributos).&lt;/li&gt;
&lt;li&gt;Importancia de cardinalidad en claves de partición. Índices de ordenación.&lt;/li&gt;
&lt;li&gt;Índices LSI y GSI. Qué índice se puede crear en una tabla ya activa y con datos. Limites de índices.
*Recuperar items y en qué casos de uso se utilizan: GetItem, Scan (no performante), Query y BatchGetItem. Consultas condicionales.&lt;/li&gt;
&lt;li&gt;Lecturas eventualmente consistentes y fuertemente consistentes. Transacciones en DynamoDB. Consumo de RCU y WCU de cada una. Tra&lt;/li&gt;
&lt;li&gt;Conocimiento para calcular RCU-WCU en un caso de uso de lecturas/escrituras por segundo de acuerdo al tipo de requerimiento de consistencia.&lt;/li&gt;
&lt;li&gt;Capacidad aprovisionada o a demanda. En qué casos de uso conviene utilizar cada una.&lt;/li&gt;
&lt;li&gt;TTL. Configuración para eliminación de ítem por medio de atributo marca de tiempo.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐&lt;strong&gt;Tip: Hacer laboratorios de Lambda invocando programáticamente a DynamoDB&lt;/strong&gt;, con diferentes funcionalidades de recupero de ítems utilizando el SDK de AWS.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;DynamoDB Stream:&lt;/strong&gt; Cómo integramos los avisos de cambios de DynamoDB (insert, modify, delete ) con los diferentes servicios .&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;FilterCriteria. Revisar ejemplos.&lt;/li&gt;
&lt;li&gt;Cómo evito publicar información sensible por medio de StreamViewType (KEYS_ONLY).&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐Tip: Recomiendo revisar diferentes casos de uso Lambda, Amazon Kinesis Data Stream, Step Functions.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;Desarrollo Api Gateway:&lt;/strong&gt; Contar con conocimiento profundo del servicio.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Tipos de APIs. Correspondencia con casos de uso.&lt;/li&gt;
&lt;li&gt;Integración con lambda, alias-versiones.&lt;/li&gt;
&lt;li&gt;Stages. Ambientes dev-prod. Variables de stage.&lt;/li&gt;
&lt;li&gt;Integraciones simuladas. Mocks.&lt;/li&gt;
&lt;li&gt;Validación de headers, request y body. Por ejemplo, podemos validar antes de llamar a un backend Lambda.&lt;/li&gt;
&lt;li&gt;Autenticación y Autorización. Roles de IAM. Api key. Cognito (app web y mobile). Lambda Authotizer.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐ Este servicio es de los mas importantes junto con Lambda. Es necesario hacer diferentes laboratorios por medio de la Consola de AWS y también por SAM (Serverless Application Model).&lt;/p&gt;

&lt;p&gt;☁ Autenticación y Autorización Cognito:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;User Pools e Identity Pools. Comprender el flujo básico de autenticación.&lt;/li&gt;
&lt;li&gt;Casos en que solo con User Pools podemos tener autenticación. Adicionando Identity Pool para implemetar Roles de IAM acceder a servicios aws (credenciales temporales).&lt;/li&gt;
&lt;li&gt;Acceso a usuarios autenticados y no autenticados. Casos de uso y diferencias.&lt;/li&gt;
&lt;li&gt;IAM roles y Trust relationships. Su relación con la configuración en Cognito.&lt;/li&gt;
&lt;li&gt;Grupos de usuarios de Cognito (dentro de User Pools). Asignación de Roles de IAM.&lt;/li&gt;
&lt;li&gt;Federación de identidades (Facebook, google, etc). Identity Provider. Protocolos SAML o OpenID Connect (OIDC).&lt;/li&gt;
&lt;li&gt;Flujos de autenticación personalizados con Lambda (Custom authentication challenge Lambda trigger).
*Amazon Cognito Sync para sincronización de perfiles en todos los dispositos mobile y web.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐ Es importante repasar ejemplos y si es posible hacer pequeños laboratorios de: app web con ALB-Cognito, flujos de autorizaciones personalizadas Lambda, Autenticación Cognito en Apigateway.&lt;br&gt;
⭐Ayuda revisar las diferentes configuraciones en la consola de AWS.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;ALB-ASG-EC2:&lt;/strong&gt; Conocer los casos de uso típicos de aplicaciones web con esta arquitectura de alta disponibilidad y cómo aplicar seguridad y certificados (ACM).&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Perfiles de instancia de EC2 y asunción de roles. Casos de uso que necesito acceder a una RDS a escribir.&lt;/li&gt;
&lt;li&gt;Cómo aplico Seguridad por VPC, Security groups, ACL.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;Contenedores ECS, EKS:&lt;/strong&gt; Componentes fundamentales, como aplicar monitoreo y observabilidad en los dos casos para solucionar problemas (Cloudwtach y X-Ray).&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;Cloudfront:&lt;/strong&gt; Además de conocer frente a que servicios puede estar (ALB, S3, lambdaEdge..) centrarse en la seguridad. Ver casos de uso para aplicar seguridad entre el lector-cloudfront y cloudfront-origen.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;SAM (Serveless Application Model):&lt;/strong&gt; Conocer los comandos básicos de la Cli de SAM. Hacer pequeños laboratorios con Lambda-ApiGateway- DynamoDB (caso de uso CRUD), comandos para testear localmente e implementar.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;CI/CD:&lt;/strong&gt; Conocer comandos básicos y cómo se integran CodeBuild, CodeDeploy, CodePipeline.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Archivos necesarios en la raiz local de cada proyecto: buildspec.yml y appspec.yml (gestiona los hooks necesarios para la implementación).&lt;/li&gt;
&lt;li&gt;Verificación con Hooks de CodeDeploy: PreTraffic y PostTraffic.&lt;/li&gt;
&lt;li&gt;En cual podemos agregar pruebas automatizadas. En dónde podemos agregar aprobación manual.&lt;/li&gt;
&lt;li&gt;Cómo lo integro con SAM? Para separar ambientes de dev-staging-prod que opciones tengo para guardar esa parametría (configuración local, ParameterStore).&lt;/li&gt;
&lt;li&gt;Importancia de las implementaciones Canary y el desvío de tráfico por porcentaje entre producción actual y la nueva implementación .&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;EventBridge:&lt;/strong&gt; Revisar casos de uso de Arquitecturas orientadas a eventos donde intervenga este servicio.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;a href="https://www.linkedin.com/posts/theburningmonk_sns-eventbridge-have-many-overlaps-and-activity-7392206683923664896-jigu?utm_source=share&amp;amp;utm_medium=member_desktop&amp;amp;rcm=ACoAAAG0JN8B2SSu7fYsiTll9cyKiq6IrBpqnWc" rel="noopener noreferrer"&gt;Comprender la diferencia de utilizar Amazon Eventbridge o SNS&lt;/a&gt;. Revisar diferentes casos de uso.&lt;/li&gt;
&lt;li&gt;Capacidad de transformación de el payload para cada destino.&lt;/li&gt;
&lt;li&gt;Filtrado de eventos. Reglas complejas basadas en el payload del evento.&lt;/li&gt;
&lt;li&gt;Casos de uso de avisos relacionados a cumplimiento, seguridad o controles generales. Relación con Security Hub, avisos de Vencimientos de certificados (ACM).&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐ Recomiendo hacer laboratorio de un ejemplo similar a: venta/pedidos de producto, donde tengo un bus de eventos y diferentes reglas que ejecutan Lambdas: “registrar pedido”, “preparar pedido” y “entregar pedido”. Cada lambda con un evento posterior avisa para el siguiente paso al bus de eventos.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;SQS:&lt;/strong&gt; Elemental entender sus casos de uso con Lambda, SNS y EventBridge.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Tipos Standard y FIFO. Performance de cada uno.&lt;/li&gt;
&lt;li&gt;DLQ (dead letter queue).&lt;/li&gt;
&lt;li&gt;Visibilidad de mensajes. Máximos.&lt;/li&gt;
&lt;li&gt;Retardos de entrega de mensajes: Delay. No confundir con visbilidad de mensajes.&lt;/li&gt;
&lt;li&gt;Reintentos de entrega de mensajes. Permanencia de mensajes.&lt;/li&gt;
&lt;li&gt;Borrado automático de mensajes cuando se realiza sondeo o pooling y cuando es necesario eliminar programáticamente.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;SNS:&lt;/strong&gt; Comprender sus casos de uso con Lambda, SQS y EventBridge.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Filtrado de eventos para diferentes consumidores. Uso de atributos para el filtrado.&lt;/li&gt;
&lt;li&gt;Diferencias con SQS. SNS tiene la capacidad de entregar el mismo mensaje a diferentes consumidores.&lt;/li&gt;
&lt;li&gt;Reintentos de entrega de mensaje. Protocolos y Políticas de entrega.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;S3:&lt;/strong&gt; Conocimiento general de todos los tipos y el tiempo de recuperación de información.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Casos de uso comunes de carga de objetos y que eventos puede disparar, ya sea en una SQS, SNS o simplemente la ejecución de una Lambda.&lt;/li&gt;
&lt;li&gt;Conocimientos de manejo de políticas de bucket (políticas basadas en recursos) no solo para permitir qué hacer a nivel bucket sino también a nivel objeto.&lt;/li&gt;
&lt;li&gt;Políticas de recursos para forzar conexiones cifradas (https), forzar realizar put ítem donde elemento ya venga encriptado. Cómo hacer para que un usuario determinado solo vea sus objetos en un bucket general.&lt;/li&gt;
&lt;li&gt;URL pre-firmadas. Duración máxima y seteo de expiración time.&lt;/li&gt;
&lt;li&gt;Sitios web estaticos. Como hacer para que sólo se puede invocar desde Cloudfront (OAC-Origin Access Control).&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;⭐ Es muy útil la practica de comandos/acciones sobre S3 con AWS CLI.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;ElasticBeanstalk:&lt;/strong&gt; que tipos de casos de uso puedo desarrollar. Comandos ClI EB. Por qué se Beanstalk (ventajas) ? En qué casos nos ayuda?&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Tipos de deployment, (hacer cuadro comparativo de All at once, Rolling, Immutable, Traffic splitting, Blue/green).&lt;/li&gt;
&lt;li&gt;Componentes centrales Enviroments y Applications-Application versions.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;StepFunctions:&lt;/strong&gt; Conocer los estados y condiciones.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Cómo hace los reintentos. Revisar ejemplos del tipo sistema de pagos.&lt;/li&gt;
&lt;li&gt;Comprender que no siempre utilizar SF es la solución mas sencilla.&lt;/li&gt;
&lt;li&gt;Relación con &lt;strong&gt;Lambda, SQS y Eventbridge&lt;/strong&gt;.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;CDK:&lt;/strong&gt; No confundir con SDK.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Uso de AWS CDK Construct Library y AWS CDK Tookit.&lt;/li&gt;
&lt;li&gt;El modelo de Programación de Constructs. Clase CDK Aspects.&lt;/li&gt;
&lt;li&gt;Aserciones de CDK . Pruebas unitarias.&lt;/li&gt;
&lt;li&gt;Traducción a plantillas Cloudformation.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;CloudFormation:&lt;/strong&gt; Estructura básica. Parametría. Rollback. Diferencias entre Ref o GetAtt. Pilas anidadas. La importancia de los Outputs. Fn::ImportValue.&lt;/p&gt;

&lt;p&gt;☁ &lt;strong&gt;CloudWatch:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Métricas personalizas. Grupos de logs. Logueo personalizado.&lt;/li&gt;
&lt;li&gt;Query en los logs.&lt;/li&gt;
&lt;li&gt;Uso Formato de Métrica Integrada (EMF, Embedded Metric Format).&lt;/li&gt;
&lt;li&gt;Agente cloudwatch. Su relacion con ECS, EKS y servidores on-prem. Qué recopila.&lt;/li&gt;
&lt;li&gt;Filtros Cloudwatch. Contadores. Avisos. Desde qué momento tiene vigencia.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;CloudTrail — XRay&lt;/strong&gt; Diferencias conceptuales entre ambos. Particularmente para el caso de AWS Developer tiene mas utilidad X-Ray, entender el por qué.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Consultas en CloudTrail, relación con Amazon Athena.&lt;/li&gt;
&lt;li&gt;Auditoria de KMS en CloudTrail.&lt;/li&gt;
&lt;li&gt;Analisis/Solución cuellos de botella. Latencia.&lt;/li&gt;
&lt;li&gt;Cómo integrar &lt;strong&gt;X-Ray en ECS o EKS&lt;/strong&gt;. Sidecar X-Ray.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;Seguridad de datos y secretos:&lt;/strong&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Claves simétricas y asimétricas. Cifrado en transito y reposo.&lt;/li&gt;
&lt;li&gt;Cómo puedo usar &lt;strong&gt;KMS&lt;/strong&gt; (claves administrados, material de clave importados, etc).&lt;/li&gt;
&lt;li&gt;Casos de uso en los que un desarrollador necesita rotar secretos de password de base de datos usando Secret Manager.&lt;/li&gt;
&lt;li&gt;Casos de uso que podemos utilizar &lt;strong&gt;Parameter Store - Secure String. Cifrado en transito y reposo&lt;/strong&gt;.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;☁ &lt;strong&gt;STS:&lt;/strong&gt; Comprender los mecanismos de obtención de credenciales: AssumeRole, AssumeRoleWebIndentity, AssumeRoleWithSAML, GetFederationToken, GetSessionToken..&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Cómo hacer para probar asumir un rol desde AWS CLI y solucionar un problema.&lt;/li&gt;
&lt;li&gt;STS en &lt;strong&gt;Cognito&lt;/strong&gt;. Relaciones de Confianza.&lt;/li&gt;
&lt;li&gt;Invocaciones AssumeRoleWithWebIdentity por qué no requieren el uso de credenciales de seguridad de AWS.&lt;/li&gt;
&lt;li&gt;Etiquetas de Sesión (Tags).&lt;/li&gt;
&lt;li&gt;Endpoint STS Global y Regional. Su relación con la latencia.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Alguna manera útil de estudiar teoría y buscar apoyo de colegas?
&lt;/h2&gt;

&lt;p&gt;⭐ En casos de uso de servicios que mas dudas tengas, lo recomendable siempre es hacer pequeños laboratorios..seguro ya lo dije pero es muy importante!!&lt;/p&gt;

&lt;p&gt;⭐ Cuidado con las IA y la explicación profunda de los servicios o casos de uso, tienen alucinaciones!&lt;br&gt;
Recomiendo estudiar de las &lt;a href="https://docs.aws.amazon.com/es_es/" rel="noopener noreferrer"&gt;documentación oficial de Aws&lt;/a&gt;. En mi caso usé: Developer Guide y API Reference en pdf/html de los servicios para CHATEAR con ellas por medio de un cuaderno de &lt;a href="https://notebooklm.google.com/notebook/7b4cf4a5-6341-4928-a190-9cb95a32b244?authuser=1" rel="noopener noreferrer"&gt;Google NotebookLM&lt;/a&gt; (te permite agregar hasta 50 fuentes con usuario sin suscripción, adición de notas y +…es espectacular!).&lt;/p&gt;

&lt;p&gt;⭐ Practicar muchas preguntas de examen es lo que te asegura el éxito.&lt;br&gt;
En AWS SkillBuilder hay un &lt;a href="https://skillbuilder.aws/learn/VHBKSAVY53/official-practice-question-set-aws-certified-developer--associate-dvac02--espaol-latam/J88736CU3U" rel="noopener noreferrer"&gt;set gratuito&lt;/a&gt; y uno &lt;a href="https://skillbuilder.aws/learn/W6VKWVHMDN/official-practice-exam-aws-certified-developer--associate-dvac02--espaol-latam/BUY8KKYZEN" rel="noopener noreferrer"&gt;con suscripción&lt;/a&gt;.&lt;br&gt;
&lt;a href="https://www.examtopics.com/exams/amazon/aws-certified-developer-associate-dva-c02/view/" rel="noopener noreferrer"&gt;Exam Topics&lt;/a&gt; (10 gratuitas).&lt;br&gt;
Tutoriales Dojo (&lt;a href="https://portal.tutorialsdojo.com/courses/free-aws-certified-developer-associate-practice-exams-sampler/" rel="noopener noreferrer"&gt;gratuitas&lt;/a&gt;).&lt;br&gt;
Revisar algún set de Practica de Udemy. &lt;a href="https://www.udemy.com/course/dva-c02-2/" rel="noopener noreferrer"&gt;En mi caso utilice set de un instructor muy poco conocido&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;⭐ Todo proceso de certificación conviene transitarlo con apoyo de las comunidades con intereses parecidos a los nuestros. Te invito a unirte:&lt;br&gt;
📚 &lt;a href="https://www.linkedin.com/company/aws-wic-buenos-aires/posts/?feedView=all" rel="noopener noreferrer"&gt;AWS Women In Cloud Buenos Aires&lt;/a&gt; → donde ayudamos a cerrar la brecha de género en aws.&lt;br&gt;
📚 &lt;a href="https://www.linkedin.com/in/maxcloud/" rel="noopener noreferrer"&gt;La comunidad de MaxCloud — El Capitan&lt;/a&gt;&lt;br&gt;
📚 &lt;a href="https://www.linkedin.com/company/aws-women-colombia/posts/?feedView=all" rel="noopener noreferrer"&gt;AWS Women Colombia&lt;/a&gt;&lt;/p&gt;

</description>
      <category>aws</category>
      <category>developercertified</category>
      <category>awscertified</category>
    </item>
  </channel>
</rss>
