DEV Community

Francisco Escobar
Francisco Escobar

Posted on

Guía de Estudio AWS Certified AI Practitioner (AIF-C01)

Conocimientos Previos Recomendados:

  • Familiaridad con servicios clave de AWS como Amazon EC2, Amazon S3, AWS Lambda y Amazon SageMaker
  • Comprensión del modelo de responsabilidad compartida de AWS
  • Familiaridad con AWS Identity and Access Management (IAM) para la seguridad
  • Conocimiento de la infraestructura global de AWS (Regiones, Zonas de Disponibilidad)
  • Familiaridad con los modelos de precios de los servicios de AWS

Detalles del Examen

  • Código: AIF-C01
  • Duración: 90 minutos
  • Costo: 100 USD
  • Número de Preguntas: 65 preguntas en total (50 afectan la puntuación, 15 son sin puntaje)
  • Puntuación: Escala de 100 a 1000, puntuación mínima para aprobar: 700
  • Calificación: "Aprobado" o "Desaprobado"

Tipos de Preguntas

  • Opción múltiple: Una respuesta correcta y tres incorrectas
  • Respuesta múltiple: Dos o más respuestas correctas de cinco o más opciones
  • Ordenación: Colocar de 3 a 5 respuestas en el orden correcto
  • Correspondencia: Unir respuestas con una lista de 3 a 7 peticiones
  • Caso práctico: Un escenario con dos o más preguntas relacionadas

Dominios del Examen

Dominio 1: Fundamentos de IA y ML (20% del examen)

1.1 Explicar los conceptos y términos básicos de la IA

Definiciones Clave:

  • Inteligencia Artificial (IA): Campo de la informática enfocado en crear sistemas capaces de realizar tareas que imitan la inteligencia humana
  • Machine Learning (ML): Subconjunto de la IA que enseña a las computadoras a aprender de los datos para mejorar su rendimiento
  • Aprendizaje Profundo (Deep Learning): Subconjunto del ML que utiliza redes neuronales artificiales (ANN) con múltiples capas
  • IA Generativa: Subconjunto del aprendizaje profundo que produce datos nuevos (texto, imágenes, audio, datos sintéticos)
  • Modelo de Lenguaje Grande (LLM): Modelos de aprendizaje profundo entrenados con enormes volúmenes de datos de texto

Tipos de Inferencia:

  • Inferencia por lotes (Batch inference): Procesamiento de grandes volúmenes de datos de una sola vez
  • Inferencia en tiempo real (Real-time inferencing): Procesamiento rápido para aplicaciones que requieren respuestas inmediatas

Tipos de Datos:

  • Etiquetados y no etiquetados: Con o sin categoría asignada
  • Estructurados: Datos tabulares
  • Semi-estructurados: Con metadatos como JSON o XML
  • No estructurados: Sin modelo definido (texto, imágenes, videos)

Paradigmas del Machine Learning:

  • Aprendizaje Supervisado: Modelo entrenado con datos etiquetados (clasificación y regresión)
  • Aprendizaje No Supervisado: Encuentra patrones en datos no etiquetados (clustering, reducción de dimensionalidad)
  • Aprendizaje por Refuerzo: Agente aprende mediante prueba y error con recompensas/penalizaciones

1.2 Identificar casos prácticos de uso de la IA

Cuándo usar IA/ML:

  • Ayudar en la toma de decisiones humanas
  • Escalar soluciones
  • Automatizar tareas repetitivas

Cuándo NO usar IA/ML:

  • Análisis de costo-beneficio desfavorable
  • Soluciones deterministas requeridas
  • Áreas muy reguladas donde se requiere explicabilidad estricta

Servicios de IA/ML administrados por AWS:

  • Amazon SageMaker: Plataforma integral para construir, entrenar y desplegar modelos de ML
  • Amazon Transcribe: Convierte voz a texto (ASR)
  • Amazon Translate: Traducción automática neuronal
  • Amazon Comprehend: NLP para extraer información del texto
  • Amazon Lex: Interfaces conversacionales (chatbots)
  • Amazon Polly: Convierte texto a voz (TTS)

1.3 Describir el ciclo de vida de desarrollo de ML

Componentes de una Canalización de ML:

  1. Recopilación de datos
  2. Análisis exploratorio de datos (EDA)
  3. Procesamiento previo de datos
  4. Ingeniería de características
  5. Entrenamiento del modelo
  6. Ajuste de hiperparámetros
  7. Evaluación del modelo
  8. Implementación
  9. Supervisión

Métodos de Implementación:

  • Servicio de API administrado: Endpoints de Amazon SageMaker
  • API autohospedada: Despliegue en servidores propios (Amazon EC2)

Servicios de AWS por Etapa:

  • Preparación de datos: Amazon SageMaker Data Wrangler, Feature Store
  • Construcción y entrenamiento: Amazon SageMaker Notebooks, Model Training
  • Implementación y monitoreo: Amazon SageMaker Pipelines, Model Monitor

Dominio 2: Fundamentos de la IA Generativa (24% del examen)

2.1 Explicar los conceptos básicos de la IA generativa

Conceptos Fundamentales:

  • Tokens: Unidades de texto más pequeñas que un modelo puede procesar
  • Incrustaciones (Embeddings): Representaciones numéricas que capturan significado semántico
  • Ingeniería de peticiones (Prompt Engineering): Diseño de entradas para guiar al modelo
  • Modelos fundacionales: Modelos de ML a gran escala, preentrenados con enormes cantidades de datos
  • Modelos multimodales: Procesan múltiples tipos de datos (texto, imágenes, audio)
  • Modelos de difusión: Crean datos realistas revirtiendo un proceso de adición de ruido

Casos de Uso:

  • Generación de imágenes, video y audio
  • Resúmenes de texto
  • Chatbots
  • Traducción
  • Generación de código
  • Motores de búsqueda y recomendación

2.2 Comprender las capacidades y limitaciones de la IA generativa

Ventajas:

  • Adaptabilidad a diversas tareas
  • Capacidad de respuesta en tiempo real
  • Simplicidad para automatizar generación de contenido

Desventajas y Desafíos:

  • Alucinaciones: Información incorrecta que parece plausible
  • Interpretabilidad: Modelos "caja negra"
  • Inexactitud y falta de determinismo
  • Toxicidad: Potencial para contenido ofensivo

2.3 Describir la infraestructura y tecnologías de AWS para IA generativa

Servicios de AWS:

  • Amazon Bedrock: Acceso a modelos fundacionales a través de API
  • Amazon SageMaker JumpStart: Centro de ML con modelos preentrenados
  • Amazon Q: Asistente de IA generativa para empresas
  • PartyRock: Playground de Amazon Bedrock

Dominio 3: Aplicaciones de Modelos Fundacionales (28% del examen)

3.1 Consideraciones de diseño para aplicaciones con modelos fundacionales

Criterios para Seleccionar Modelos:

  • Costo: Precios de suscripción, recursos de cómputo
  • Modalidad: Tipos de datos soportados
  • Latencia: Velocidad de respuesta
  • Tamaño y complejidad del modelo
  • Longitud de entrada/salida

Parámetros de Inferencia:

  • Temperatura: Controla aleatoriedad (alta = creativo, baja = determinista)

Generación Aumentada por Recuperación (RAG):

  • Optimiza salida de LLM al referenciar base de conocimientos externa
  • Combina recuperación de información con generación de texto
  • Bases de conocimiento para Amazon Bedrock es implementación de RAG

Bases de Datos Vectoriales:

  • Almacenan embeddings para búsquedas de similitud rápidas
  • Servicios AWS: OpenSearch Service, Aurora, Neptune, DocumentDB, RDS PostgreSQL

Personalización de Modelos:

  • Pre-entrenamiento: Extremadamente costoso, desde cero
  • Ajuste (Fine-Tuning): Adaptar modelo preentrenado, menos costoso
  • Aprendizaje en contexto: Guiar con ejemplos en prompt, muy rentable
  • RAG: Equilibrio, actualiza conocimiento sin reentrenamiento

3.2 Técnicas eficaces de ingeniería de peticiones

Técnicas de Prompting:

  • Zero-shot: Sin ejemplos previos
  • One-shot / Few-shot: Con uno o varios ejemplos
  • Cadena de pensamiento: Razonamiento paso a paso

Riesgos:

  • Inyección de peticiones: Manipulación maliciosa del prompt
  • Jailbreak: Ignorar filtros de seguridad
  • Envenenamiento: Datos maliciosos que degradan rendimiento

3.3 Entrenamiento y ajuste de modelos fundacionales

Métodos de Ajuste:

  • Ajuste de instrucciones: Con ejemplos de instrucciones y respuestas
  • Adaptación a dominios específicos: Datos de campo particular
  • RLHF (Aprendizaje por refuerzo con retroalimentación humana): Alinear con preferencias humanas

3.4 Evaluación del rendimiento del modelo fundacional

Enfoques:

  • Evaluación humana: Estándar de oro pero costoso
  • Conjuntos de datos de referencia: GLUE, SuperGLUE

Métricas:

  • ROUGE: Para resúmenes de texto
  • BLEU: Para traducción automática
  • BERTScore: Similitud semántica con embeddings de BERT

Dominio 4: Directrices de la IA Responsable (14% del examen)

4.1 Desarrollo de sistemas de IA responsables

Características de IA Responsable:

  • Equidad
  • Inclusividad
  • Robustez
  • Seguridad
  • Veracidad
  • Transparencia
  • Gobernanza

Sesgo y Equidad:

  • Tipos: algorítmico, de datos, de muestreo, de prejuicio
  • Efectos: resultados injustos, overfitting/underfitting

Herramientas AWS:

  • Amazon SageMaker Clarify: Detecta sesgos y explica predicciones
  • Amazon SageMaker Model Monitor: Supervisa modelos en producción
  • Amazon Augmented AI (A2I): Revisiones humanas
  • Guardrails para Amazon Bedrock: Políticas de seguridad para IA generativa

4.2 Modelos transparentes y explicables

Transparencia vs. Modelos "Caja Negra":

  • Transparentes: fáciles de interpretar (árboles de decisión)
  • Opacos: difíciles de entender (redes neuronales profundas)

Herramientas:

  • Model Cards de Amazon SageMaker: Documentan información del modelo
  • AWS AI Service Cards: Información sobre uso responsable

Dominio 5: Seguridad, Cumplimiento y Gobernanza (14% del examen)

5.1 Métodos para proteger sistemas de IA

Servicios de Seguridad AWS:

  • AWS IAM: Gestión de acceso con principio de mínimo privilegio
  • Cifrado: En reposo y en tránsito con AWS KMS
  • Amazon Macie: Descubre y protege datos sensibles (PII)
  • AWS PrivateLink: Conectividad privada entre VPCs
  • Modelo de responsabilidad compartida: AWS seguridad de la nube, cliente en la nube

Citación y Origen de Datos:

  • Linaje de datos: Rastrear origen y transformaciones
  • Catalogación: AWS Glue Data Catalog para organizar metadatos

5.2 Normativas de gobernanza y cumplimiento

Estándares:

  • ISO: ISO/IEC 27001 (seguridad), ISO/IEC 42001 (gestión de IA)
  • SOC: Controles de Organización y Servicio

Servicios AWS para Cumplimiento:

  • AWS Artifact: Acceso a informes de cumplimiento
  • AWS Config: Evalúa y supervisa configuraciones
  • AWS Audit Manager: Ayuda con auditorías continuas
  • AWS CloudTrail: Registra actividad de cuenta y API
  • AWS Trusted Advisor: Recomendaciones de optimización

Estrategias de Gobernanza:

  • Políticas de ciclo de vida de datos
  • Registro (logging)
  • Residencia de datos
  • Supervisión
  • Retención

Consejos para el Examen

  1. Practica con casos de uso reales de cada servicio de AWS mencionado
  2. Comprende las diferencias entre los tipos de aprendizaje automático
  3. Familiarízate con las métricas de evaluación y cuándo usar cada una
  4. Estudia los aspectos éticos y de IA responsable
  5. Conoce las características de seguridad y cumplimiento de AWS
  6. Practica la ingeniería de prompts y comprende RAG
  7. Revisa los modelos de precios y factores de selección de modelos

¡Buena suerte en tu certificación!

Top comments (0)