Cuestionario de Repaso
Instrucciones: Responda cada una de las siguientes preguntas en 2 o 3 oraciones, basándose únicamente en el contexto proporcionado.
Preguntas del Cuestionario
¿Cuál es la diferencia fundamental entre la Inteligencia Artificial (IA), el Aprendizaje Automático (ML) y el Aprendizaje Profundo (Deep Learning)?
¿Qué es la Ingeniería de Prompts (Prompt Engineering) y cuál es su propósito en el contexto de la IA generativa?
Describa el concepto de Generación Aumentada por Recuperación (RAG) y cómo mejora los modelos de lenguaje grandes (LLM).
Explique el problema de las "alucinaciones" en los modelos de IA y por qué es una limitación importante de la IA generativa.
¿Qué es Amazon Bedrock y qué capacidades clave ofrece para el desarrollo de aplicaciones de IA generativa?
¿Cuál es el propósito de Amazon SageMaker Clarify en el contexto de la IA responsable?
Defina los conceptos de sobreajuste (overfitting) y subajuste (underfitting) en el ajuste de modelos de ML.
Describa brevemente la diferencia entre la inferencia por lotes (batch inference) y la inferencia en tiempo real (real-time inferencing).
¿Qué son las Tarjetas de Servicio de IA de AWS (AWS AI Service Cards) y qué tipo de información proporcionan?
Explique el Modelo de Responsabilidad Compartida de AWS y cómo se aplica a la seguridad de los sistemas de IA.
Preguntas de Ensayo
Describa en detalle el ciclo de vida del desarrollo de aprendizaje automático (ML), abarcando desde la recopilación de datos hasta el despliegue, monitoreo y mantenimiento. Para cada etapa, identifique y explique la función de al menos un servicio relevante de Amazon SageMaker.
Analice los riesgos legales y los desafíos asociados con el trabajo con IA generativa, incluyendo la infracción de propiedad intelectual, los sesgos en los resultados, la pérdida de confianza del cliente y las alucinaciones. ¿Cómo ayudan herramientas como las barandillas (Guardrails) para Amazon Bedrock a mitigar algunos de estos riesgos?
Compare y contraste los diferentes enfoques para la personalización de modelos fundacionales: preentrenamiento, ajuste fino (fine-tuning), aprendizaje en contexto (in-context learning) y Generación Aumentada por Recuperación (RAG). Discuta las ventajas, desventajas y las consideraciones de costo de cada método.
Explique la importancia de la transparencia y la explicabilidad en los modelos de IA. ¿Cuál es la diferencia entre un modelo transparente y uno opaco ("caja negra"), y qué herramientas de AWS, como Amazon SageMaker Model Cards, ayudan a promover la transparencia?
Detalle las seis perspectivas del Marco de Adopción de la Nube de AWS para IA (AWS CAF-AI). Para cada perspectiva (Negocio, Personas, Gobernanza, Plataforma, Seguridad y Operaciones), explique su objetivo principal y mencione una de sus capacidades fundamentales.
Clave de Respuestas del Cuestionario
1. Diferencia entre IA, ML y Deep Learning
La Inteligencia Artificial (IA) es el concepto general de crear sistemas que imitan la inteligencia humana. El Aprendizaje Automático (ML) es un subconjunto de la IA que se enfoca en enseñar a las computadoras a aprender de los datos sin programación explícita. El Aprendizaje Profundo (Deep Learning) es un subconjunto especializado del ML que utiliza redes neuronales artificiales con múltiples capas para comprender patrones complejos en grandes conjuntos de datos.
2. Ingeniería de Prompts
La Ingeniería de Prompts es la técnica de guiar a una solución de IA generativa para que produzca los resultados deseados. Su propósito es crear entradas o "prompts" claros y específicos que dirijan al modelo de IA para que proporcione respuestas precisas y apropiadas para la tarea o instrucción dada.
3. Generación Aumentada por Recuperación (RAG)
La Generación Aumentada por Recuperación (RAG) es un método que optimiza la salida de un LLM al hacer referencia a una base de conocimientos externa con datos específicos de la empresa o la industria. Mejora los LLM al reducir la dependencia de datos de preentrenamiento que pueden estar desactualizados, disminuyendo la probabilidad de errores y "alucinaciones" al integrar información relevante en tiempo real.
4. Alucinaciones en modelos de IA
Las alucinaciones ocurren cuando un modelo de IA genera resultados incorrectos, inexactos o engañosos. Son una limitación importante porque pueden ser causadas por datos de entrenamiento insuficientes, suposiciones incorrectas del modelo o sesgos, lo que lleva a la difusión de información falsa y socava la confianza en el sistema de IA.
5. Amazon Bedrock
Amazon Bedrock es un servicio de AWS totalmente gestionado que proporciona acceso a modelos fundacionales de alto rendimiento a través de una API común. Sus capacidades clave incluyen el acceso a modelos de diversas compañías de IA, la personalización de modelos (fine-tuning), el soporte para RAG a través de bases de conocimiento y la creación de agentes de IA para completar tareas de forma autónoma.
6. Amazon SageMaker Clarify
Amazon SageMaker Clarify es una herramienta diseñada para mejorar la equidad y la transparencia de los modelos de ML. Su propósito es ayudar a detectar posibles sesgos en los datos y en las predicciones del modelo, y proporcionar informes de explicabilidad que detallan por qué un modelo tomó una decisión específica, apoyando así el desarrollo de una IA responsable.
7. Sobreajuste y Subajuste
El sobreajuste (overfitting) ocurre cuando un modelo funciona bien con los datos de entrenamiento pero no con datos nuevos o no vistos, ya que ha memorizado los datos en lugar de generalizar. El subajuste (underfitting) se produce cuando un modelo es demasiado simple para capturar adecuadamente los patrones en los datos, lo que resulta en un rendimiento deficiente tanto en los datos de entrenamiento como en los nuevos.
8. Inferencia por Lotes vs. Tiempo Real
La inferencia por lotes es adecuada para procesar grandes volúmenes de datos donde la eficiencia es más importante que la rapidez, procesando todos los datos a la vez. La inferencia en tiempo real procesa los datos rápidamente para aplicaciones que requieren respuestas inmediatas, como la detección de fraudes o los sistemas de recomendación, aunque es más compleja y costosa.
9. Tarjetas de Servicio de IA de AWS
Las Tarjetas de Servicio de IA de AWS son documentos que proporcionan detalles claros sobre cómo usar los servicios de IA de AWS de manera responsable. Cubren el propósito del servicio, sus limitaciones y las mejores prácticas para su implementación cuidadosa, mejorando la transparencia. Servicios como Amazon Rekognition y Amazon Textract tienen estas tarjetas.
10. Modelo de Responsabilidad Compartida
El Modelo de Responsabilidad Compartida de AWS divide las responsabilidades de seguridad entre AWS y el cliente. AWS es responsable de la seguridad "de" la nube (infraestructura física, servicios fundacionales), mientras que el cliente es responsable de la seguridad "en" la nube. Para los sistemas de IA, esto significa que el cliente debe proteger sus datos, gestionar el acceso a través de IAM, asegurar sus aplicaciones y configurar correctamente los controles de red.
Glosario de Términos Clave
Término | Definición |
---|---|
Adaptabilidad | La capacidad de la IA generativa para ajustarse a diversas actividades y dominios, aprendiendo de los datos y creando contenido adaptado a situaciones o necesidades específicas. |
Ajuste Fino (Fine-tuning) | Un método en el que un modelo preentrenado en un conjunto de datos se reutiliza para un nuevo conjunto de datos, en lugar de empezar desde cero. Permite construir modelos fiables a partir de conjuntos de datos más pequeños y con menos tiempo de entrenamiento. |
Amazon Augmented AI (A2I) | Un servicio de AWS que simplifica la incorporación de la revisión humana en las predicciones de aprendizaje automático para garantizar resultados de alta calidad. |
Amazon Bedrock | Un servicio totalmente gestionado de AWS que proporciona acceso a modelos fundacionales (FMs) de alto rendimiento de empresas líderes en IA y de Amazon a través de una API común, para construir aplicaciones de IA generativa. |
Amazon Comprehend | Un servicio de Procesamiento del Lenguaje Natural (NLP) que utiliza el aprendizaje automático para encontrar conocimientos y conexiones en el texto, realizando tareas como análisis de sentimiento y reconocimiento de entidades. |
Amazon Kendra | Una herramienta de búsqueda inteligente que utiliza el aprendizaje automático para ofrecer resultados de búsqueda muy precisos y relevantes a través de fuentes de datos estructuradas y no estructuradas. |
Amazon Rekognition | Un servicio de Visión por Computadora totalmente gestionado que permite a los desarrolladores añadir análisis de imágenes y videos a sus aplicaciones para identificar objetos, personas, texto, escenas y actividades. |
Amazon SageMaker AI | Un servicio de AWS para construir, entrenar y desplegar modelos de aprendizaje automático (ML) a gran escala. |
Amazon SageMaker Clarify | Una herramienta de SageMaker que ofrece información para mejorar la equidad y transparencia de los modelos, analizando posibles sesgos en los conjuntos de datos y las predicciones del modelo. |
Amazon SageMaker JumpStart | Un centro de ML que acelera la selección, personalización y despliegue de modelos, ofreciendo modelos preentrenados para tareas como la generación de imágenes y el resumen de artículos. |
Amazon Textract | Un servicio de ML que extrae palabras escritas y detalles de documentos físicos escaneados automáticamente, utilizando Reconocimiento Óptico de Caracteres (OCR) combinado con sistemas de ML. |
Aprendizaje Automático (ML) | Un subconjunto de la IA que combina ciencia y arte para enseñar a las computadoras cómo aprender de los datos, mejorando su rendimiento con el tiempo sin necesidad de programación explícita para cada tarea. |
Aprendizaje No Supervisado | Algoritmos de ML entrenados con datos no etiquetados. Encuentra estructuras, grupos o patrones en los datos suministrados sin ninguna información o guía previa. |
Aprendizaje Profundo (Deep Learning) | Un subconjunto especializado del ML que emplea Redes Neuronales Artificiales (ANN) con capas de aprendizaje computacional, lo que permite a un modelo comprender patrones complejos dentro de grandes conjuntos de datos. |
Aprendizaje por Refuerzo (RL) | Un agente aprende a tomar decisiones mediante prueba y error a través de interacciones con el entorno, recibiendo recompensas o penalizaciones por sus acciones. |
Aprendizaje Supervisado | Algoritmos de ML entrenados utilizando datos de muestra que consisten tanto en la entrada como en la salida correspondiente. |
Arquitectura Transformer | Un tipo de arquitectura de red neuronal que se centra en comprender las relaciones entre palabras o partes de datos prestando atención a todo a la vez, lo que la hace más rápida y precisa para tareas como la traducción o la comprensión de texto. |
Aumento por Recuperación (RAG) | Un enfoque de IA avanzado que combina técnicas de recuperación de información con modelos generativos para proporcionar respuestas altamente precisas y contextualmente apropiadas, accediendo a bases de conocimiento externas. |
Barandillas (Guardrails) | Características de seguridad flexibles en servicios como Amazon Bedrock que ayudan a garantizar el uso responsable y ético de los modelos de IA, bloqueando contenido dañino y filtrando respuestas falsas. |
BERTScore | Una métrica para evaluar modelos de generación de texto comparando las similitudes a nivel de token utilizando incrustaciones de BERT. |
BLEU (Bilingual Evaluation Understudy) | Una métrica utilizada para evaluar la calidad del texto traducido automáticamente midiendo la similitud entre la salida de la máquina y las traducciones de referencia humanas. |
Chunking | La división de textos en secciones más pequeñas y digeribles para que el modelo pueda procesarlos de manera más sencilla. |
Embeddings | Representaciones numéricas de objetos del mundo real (como palabras o imágenes) utilizadas por sistemas de ML e IA para comprender dominios de conocimiento complejos. |
Espacio Latente del Modelo | El espacio conceptual donde los modelos de ML transforman los datos de entrada en representaciones de características que se utilizan para generar salidas. |
IA Generativa | Un subconjunto del dominio del aprendizaje profundo que se centra en producir nuevos datos en diversos formatos, como texto, archivos, audio, imágenes y datos sintéticos. |
Incrustación de Prompts (Prompt Injection) | Una vulnerabilidad de seguridad que ocurre cuando se utilizan entradas maliciosas en los prompts para alterar la salida de los modelos de lenguaje. |
Inferencia | El proceso en el que los modelos de IA entrenados extraen conocimientos o conclusiones de datos nuevos y no vistos. |
Ingeniería de Prompts | Una técnica que guía a las soluciones de IA generativa para que produzcan los resultados previstos mediante la creación de entradas o "prompts" claros y específicos. |
Inteligencia Artificial (IA) | Un campo dentro de la informática que se enfoca en crear sistemas capaces de realizar tareas inteligentes que imitan la inteligencia humana. |
Modelo de Responsabilidad Compartida | Un concepto de AWS que define la división de las responsabilidades de seguridad y cumplimiento entre AWS y sus clientes. AWS es responsable de la seguridad "de" la nube, y el cliente de la seguridad "en" la nube. |
Modelos Fundacionales (FMs) | Modelos de aprendizaje profundo entrenados con grandes conjuntos de datos que pueden ejecutar diversas tareas como conversación en lenguaje natural, generación de texto e imágenes, y que pueden ser ajustados para tareas específicas. |
Modelos Multimodales | Modelos diseñados para manejar y analizar entradas de múltiples fuentes, incluyendo texto, imágenes, audio y video. |
Procesamiento del Lenguaje Natural (NLP) | Una rama de la IA dedicada a permitir que las computadoras comprendan, interpreten e interactúen con los lenguajes humanos. |
Red Neuronal (NN) | Un modelo computacional de IA construido en capas, inspirado en la estructura del cerebro humano, que consiste en unidades interconectadas llamadas neuronas o nodos. |
ROUGE (Recall-Oriented Understudy for Gisting Evaluation) | Una métrica para evaluar la calidad de los resúmenes de texto comparando la superposición entre los resúmenes producidos y los de referencia. |
Sesgo (Bias) | En IA, significa un trato injusto por parte de la inteligencia artificial, que ocurre cuando los sistemas de IA dan resultados injustos a grupos o personas específicas. |
Sobreajuste (Overfitting) | Cuando un modelo puede dar predicciones precisas para los datos de entrenamiento pero no para datos nuevos o no vistos. |
Subajuste (Underfitting) | Cuando un modelo es demasiado básico para representar adecuadamente los patrones en los datos, resultando en un bajo rendimiento. |
Tokens | Las unidades textuales más pequeñas que un modelo de IA puede comprender, como palabras, letras o puntuación. |
Visión por Computadora | Permite a las máquinas identificar personas, lugares y cosas en fotografías con una precisión igual o superior a la de los humanos, operando a velocidades mucho más altas. |
Top comments (0)