DEV Community

Ramses Mata for AWS

Posted on

¿Qué es un Modelo de IA? Explicación sencilla

La mayoría de nosotros ha utilizado chats de IA en los últimos años en su día a día. Sin importar si eres estudiante o profesional, son herramientas que se han enraizado en nuestras vidas. Pero, ¿sabes exactamente qué hay detrás? ¿Cómo es que funcionan realmente? No es magia, en realidad es pura estadística.

Detrás de cada chat de IA, cada traductor automático y cada asistente de código, hay algo llamado modelo. No necesitas ser ingeniero de Machine Learning para entender qué es, y tampoco vamos a entrar en matemáticas o algoritmos. En este artículo vas a aprender qué es un modelo, cómo interactúas con uno, cómo elegir el correcto y si necesitas crear el tuyo propio.


1. ¿Qué es un modelo?

Un modelo de IA es un programa informático entrenado con grandes cantidades de datos que predice qué es lo más probable que venga después en una secuencia de texto. No "entiende" ni "sabe", calcula probabilidades basándose en patrones.

Con qué es entrenado un modelo?

Imagina que tienes un amigo que es increíblemente bueno para terminar tus frases. Tú dices "hoy me siento..." y él responde "cansado" porque te conoce, sabe el contexto y ha escuchado miles de conversaciones similares. Eso, en esencia, es lo que hace un modelo de IA: un programa entrenado con cantidades masivas de texto que predice qué es lo más probable que venga después.

Por ejemplo, en el contexto "Mi color favorito es...", un modelo debería predecir "rojo" mejor que "auto". No porque "entienda" colores, sino porque en los millones de textos que ha procesado, "rojo" aparece mucho más frecuentemente después de "mi color favorito es" que "auto".

Predicción de la siguiente palabra: el modelo calcula probabilidades y elige la más alta

Esto es importante: el modelo no "sabe" cosas ni "entiende" el mundo. Calcula probabilidades. Es muy bueno encontrando patrones en texto, y eso le permite generar respuestas que parecen inteligentes, pero por debajo es estadística.

💡 Tip importante: Antes de procesar texto, los modelos lo descomponen en piezas pequeñas llamadas tokens (que pueden ser palabras, partes de palabras o caracteres). Esto es lo que les permite trabajar con cualquier idioma y tipo de texto.


2. ¿Cómo interactúas con un modelo?

Como desarrollador, tú no entrenas modelos, los usas. Y la interacción es más simple de lo que parece: tú envías un prompt (una instrucción o pregunta en texto) y el modelo te devuelve una respuesta.

Interacción con un modelo: prompt → modelo → respuesta

Esto sucede a través de APIs. Servicios como Amazon Bedrock, OpenAI API o Google Vertex AI te dan acceso a modelos poderosos sin que tengas que preocuparte por la infraestructura detrás.

Pero también puedes correr un modelo directamente en tu computadora usando herramientas como Ollama. Con un solo comando puedes descargar un modelo y empezar a hablar con él:

ollama run llama3.1
Enter fullscreen mode Exit fullscreen mode

Esto descarga el modelo Llama 3.1 y abre una conversación directa en tu terminal:

Ollama corriendo Llama 3.1 en la terminal

Piénsalo así: tú no construyes el motor del auto, tú lo conduces. Los modelos ya están construidos y entrenados, tu trabajo es aprender a usarlos bien.

Y aquí hay un detalle clave: la calidad de la respuesta que recibes depende mucho de cómo escribes tu prompt. Veamos un ejemplo real. Si le pedimos al modelo algo vago como "escribe algo sobre perros", obtenemos una respuesta genérica:

Respuesta del modelo a un prompt vago:

Pero si somos más específicos con "escribe un párrafo de 3 oraciones explicando por qué los perros son buenas mascotas para familias con niños", la respuesta es mucho más útil:

Respuesta del modelo a un prompt específico sobre perros y familias

La diferencia es notable. A esta habilidad de escribir buenos prompts se le llama prompt engineering, es una de esas habilidades que suele ser muy infravalorada y muchas veces usada como meme, pero te va a ayudar mucho al desarrollar software y usar modelos de IA.

💡 Tip importante: No necesitas instalar ni configurar un modelo en tu computadora para usarlo. A través de APIs puedes enviar un prompt y recibir una respuesta con unas pocas líneas de código.


3. ¿Cómo elijo un modelo?

Cuando empiezas a investigar sobre modelos, te encuentras con muchos nombres: Claude, GPT, Llama, Nova, Mistral... ¿Cómo sabes cuál usar? En lugar de memorizar una taxonomía de tipos de modelos, lo que realmente importa son las capacidades del modelo.

Si usas Ollama, puedes explorar los modelos disponibles en ollama.com/library. Cada modelo tiene una página con sus capacidades, tamaño y ventana de contexto. Por ejemplo, en la página de Llama 3.1 puedes ver toda esta información de un vistazo:

Página de Llama 3.1 en Ollama mostrando capacidades, tamaño y contexto

Estas son las capacidades más relevantes:

Capacidad Qué hace Cuándo la necesitas
Generación de texto Produce texto, código, resúmenes Siempre (es la base)
Multimodalidad Procesa imágenes, audio, video Cuando trabajas con más que texto
Ventana de contexto Cuánto texto puede "ver" a la vez Documentos largos, conversaciones extensas
Costo y velocidad Tradeoff entre capacidad y precio Aplicaciones con muchas llamadas

Generación de texto

Todos los modelos modernos pueden generar texto, pero no todos lo hacen igual de bien. Algunos son mejores para conversación, otros para código, otros para análisis. Esta es la capacidad base.

Multimodalidad

Algunos modelos pueden procesar no solo texto, sino también imágenes, audio o video. Si necesitas analizar capturas de pantalla, interpretar documentos escaneados o procesar fotos, necesitas un modelo multimodal.

Ventana de contexto

La ventana de contexto es la cantidad de texto que el modelo puede "ver" al mismo tiempo. Piénsalo como su memoria a corto plazo. Un modelo con una ventana de contexto grande puede leer documentos largos, mantener conversaciones extensas o analizar múltiples archivos a la vez.

Puedes encontrar el tamaño de la ventana de contexto en la página de documentación de cada modelo. Como referencia: 128K tokens es suficiente para la mayoría de tareas con texto. Si necesitas trabajar con múltiples documentos largos o conversaciones muy extensas, busca modelos con 200K+ tokens.

Costo y velocidad

Los modelos más capaces suelen ser más lentos y más caros por petición. Si tu aplicación hace muchas llamadas al modelo, esto importa. A veces un modelo más pequeño y rápido es mejor opción que el más poderoso.

💡 Tip importante: No necesitas el modelo más grande o más caro. Elige basándote en lo que necesitas hacer. Una tarea que solo clasifica textos cortos no necesita el mismo modelo que una que analiza documentos de 100 páginas.


4. ¿Necesito crear mi propio modelo?

Respuesta corta: casi seguro que no.

Como desarrollador, tu rol es consumir modelos a través de APIs y servicios, no construirlos desde cero. Entrenar un modelo requiere cantidades enormes de datos, poder computacional y experiencia en Machine Learning.

Developer vs ML Engineer: el desarrollador usa modelos vía API, el ingeniero de ML los entrena

Proveedores de nube como AWS con Amazon Bedrock te dan acceso a múltiples modelos fundacionales sin que tengas que manejar infraestructura. Tú eliges el modelo, envías tu prompt a través de la API, y recibes tu respuesta.

¿Cuándo necesitarías tu propio modelo? En casos muy específicos donde los modelos existentes no cubren tu necesidad. Por ejemplo, un hospital que necesita un modelo entrenado específicamente con sus registros médicos internos y terminología propia, o una empresa con un lenguaje de dominio tan especializado que los modelos generales no manejan bien. Y aún en esos casos, lo más común es hacer fine-tuning (ajustar un modelo existente o preentrenado con tus datos) en lugar de construir uno desde cero.

Tu trabajo como desarrollador: aprender a usar modelos de manera efectiva, elegir el correcto para cada caso de uso, y construir aplicaciones que los aprovechen.


Preguntas frecuentes

¿Cuál es la diferencia entre un modelo de IA y un LLM?

Un LLM (Large Language Model) es un tipo específico de modelo de IA. Todos los LLMs son modelos de IA, pero no todos los modelos de IA son LLMs. "LLM" se refiere a modelos de lenguaje entrenados con cantidades masivas de datos, como Claude, GPT o Llama.

¿Puedo correr un modelo de IA en mi computadora?

Sí, pero con limitaciones. Herramientas como Ollama te permiten descargar y correr modelos localmente con un solo comando. Modelos como Llama 3.1 funcionan bien en computadoras con 16GB de RAM. Sin embargo, los modelos más capaces requieren hardware muy potente (GPUs especializadas y decenas de gigabytes de memoria) que la mayoría de computadoras personales no tienen. Aquí es donde el cloud computing ayuda: servicios como Amazon Bedrock te dan acceso a los modelos más poderosos a través de una API, sin necesidad de tener el hardware en tu máquina.

¿Qué modelo de IA debería usar para mi proyecto?

Depende de lo que necesites. Para tareas de texto general, cualquier LLM moderno funciona. Si necesitas procesar imágenes o audio, busca un modelo multimodal. Si tu aplicación hace muchas llamadas, prioriza costo y velocidad sobre capacidad máxima.


Conclusión

Recapitulemos lo que aprendimos:

  • Un modelo de IA es un programa que predice qué viene después basándose en patrones que aprendió de datos. No "entiende" ni "sabe", calcula probabilidades
  • Interactúas con modelos enviando prompts y recibiendo respuestas a través de APIs
  • Al elegir un modelo, lo que importa son las capacidades: generación de texto, multimodalidad, ventana de contexto, costo y velocidad
  • No necesitas crear tu propio modelo. Servicios en la nube te dan acceso a modelos poderosos listos para usar

Algo que no cubrimos en este artículo pero vale la pena mencionar: algunos modelos también soportan uso de herramientas (tool use), lo que significa que pueden describir cuándo necesitan llamar a una función externa y con qué parámetros. Esta capacidad es lo que hace posible construir agentes de IA, y es exactamente lo que exploraremos en el próximo artículo.

Top comments (0)