TL;DR
Los precios de MiMo-V2-Pro comienzan en $1/1M de tokens de entrada y $3/1M de tokens de salida (contexto ≤256K). Los precios de MiMo-V2-Omni cubren entradas multimodales de texto, imagen, audio y video en un modelo unificado. Ambos modelos están disponibles vía una API compatible con OpenAI en platform.xiaomimimo.com. Usa Apidog para probar la API visualmente, o Python para integraciones de producción y respalda tu integración con una prueba unitaria.
Introducción
Xiaomi lanzó tres nuevos modelos de IA el 18 de marzo de 2026. Los desarrolladores pusieron el foco en MiMo-V2-Pro y MiMo-V2-Omni: uno orientado a razonamiento profundo, otro a capacidades multimodales reales. Si buscas detalles sobre precios de MiMo-V2-Pro, precios de Omni o cómo usar la API en tu stack, esta guía va directo al grano. Aquí desglosamos los precios, las capacidades y te mostramos cómo integrarlo rápidamente: primero con un flujo visual usando Apidog, luego con Python y pruebas unitarias para producción.
💡 Tip: Antes de escribir código para la API de MiMo-V2-Pro u Omni, descarga Apidog gratis. Prueba solicitudes visualmente, valida respuestas, agrega aserciones de pruebas unitarias y depura el uso de tokens al instante, todo sin gastar tokens ni escribir Python.
Desglose de precios de MiMo-V2-Pro y MiMo-V2-Omni
Entender los precios de MiMo-V2-Pro y los precios de Omni es crucial antes de consumir la API. Ambos usan precios escalonados por tokens, competitivos para cargas de producción.
Precios de MiMo-V2-Pro: por niveles según la longitud del contexto
| Longitud del Contexto | Entrada (por 1M de tokens) | Salida (por 1M de tokens) |
|---|---|---|
| ≤ 256K tokens | $1.00 | $3.00 |
| 256K – 1M tokens | $2.00 | $6.00 |
La estructura escalonada corresponde a la ventana de 1M de tokens del modelo. Si trabajas por debajo de los 256K tokens, los precios de MiMo-V2-Pro son muy competitivos (la salida cuesta 1/8 del precio de Claude Opus). Para procesamiento de bases de código grandes o flujos muy largos, aplica el precio superior.
Precios de MiMo-V2-Omni
Los precios de Omni siguen la misma lógica, pero admiten entrada multimodal. MiMo-V2-Omni procesa texto, imagen, audio y video en una sola arquitectura, sin módulos externos. Los tokens de imagen/audio se suman a los de texto, por lo que el precio escala según la riqueza de tu entrada.
- Para tareas solo de texto, precios de Omni ≈ precios de MiMo-V2-Pro.
- Para cargas multimodales, espera un mayor número de tokens por solicitud.
Comparación de precios de la familia MiMo-V2
| Modelo | Entrada (por 1M) | Salida (por 1M) | Ventana de Contexto | Modalidades |
|---|---|---|---|---|
| MiMo-V2-Pro | $1.00 / $2.00* | $3.00 / $6.00* | 1M tokens | Texto |
| MiMo-V2-Omni | ~$1.00* | ~$3.00* | 256K tokens | Texto, Imagen, Audio, Video |
| MiMo-V2-Flash | $0.10 | $0.30 | 256K tokens | Texto |
*Escalonado o aproximado. Verifica tarifas actuales en platform.xiaomimimo.com
Elige MiMo-V2-Flash para tareas de texto simples y bajo costo. MiMo-V2-Pro es ideal para razonamiento profundo y gran contexto. Usa MiMo-V2-Omni cuando necesites pipelines multimodales; los precios de Omni cubren todos los tipos de entrada en una sola llamada.
Capacidades de la API de MiMo-V2-Pro y Omni
Antes de ver cómo usar la API, define para qué sirve cada modelo:
MiMo-V2-Pro:
- 1 billón de parámetros, 42 mil millones activos.
- Ventana de contexto de 1M de tokens: perfecto para bases de código grandes o tareas largas.
- Predicción Multi-Token (MTP): inferencia más rápida.
- Razonamiento autónomo, ejecución de herramientas, ingeniería de software.
- Top #1 en su rango de precios en el Índice de Inteligencia de Análisis Artificial.
MiMo-V2-Omni:
- Procesa texto, imagen, audio, video nativamente.
- Codificadores de imagen/audio integrados.
- Útil para OCR, transcripción, análisis de video, razonamiento intermodal.
Ambos modelos usan endpoints compatibles con OpenAI en platform.xiaomimimo.com. Puedes cambiar entre ellos en cualquier integración del SDK de OpenAI con mínimos cambios.
Cómo usar la API con Apidog
Apidog es la vía más rápida para explorar cómo usar la API sin programar. Ofrece una GUI completa para enviar solicitudes, ver respuestas y ejecutar aserciones de pruebas unitarias. Descarga Apidog gratis antes de iniciar.
Configuración de solicitudes de API de MiMo-V2-Pro y Omni en Apidog
Sigue estos pasos:
-
Abre Apidog y crea un nuevo proyecto (
MiMo-V2 API Tests). -
Crea una nueva solicitud HTTP:
- Método:
POST - URL:
https://api.xiaomimimo.com/v1/chat/completions
- Método:
- Agrega estos encabezados:
| Clave | Valor |
|---|---|
| Authorization | Bearer YOUR_MIMO_API_KEY |
| Content-Type | application/json |
- Cuerpo de la solicitud (Body → JSON):
- Para MiMo-V2-Pro:
{
"model": "mimo-v2-pro",
"messages": [
{
"role": "user",
"content": "Escribe una función de Python que compruebe si un número es primo, y explica cómo la probarías unitariamente."
}
],
"temperature": 0.6,
"max_tokens": 512
}
- Para MiMo-V2-Omni (entrada de imagen):
{
"model": "mimo-v2-omni",
"messages": [
{
"role": "user",
"content": [
{ "type": "text", "text": "Describe lo que ves en esta imagen." },
{ "type": "image_url", "image_url": { "url": "https://example.com/diagram.png" } }
]
}
],
"max_tokens": 300
}
- Haz clic en Enviar. Apidog muestra la respuesta y el uso de tokens, permitiendo rastrear los costos de precios de MiMo-V2-Pro y precios de Omni en tiempo real.
Escribir pruebas unitarias para la API de MiMo-V2-Pro y Omni en Apidog
Apidog permite añadir scripts de prueba por solicitud (pestaña Tests):
// Prueba unitaria 1: El estado HTTP es 200
pm.test("El código de estado es 200", function () {
pm.response.to.have.status(200);
});
// Prueba unitaria 2: Modelo correcto devuelto
pm.test("El ID del modelo es correcto", function () {
const json = pm.response.json();
pm.expect(json.model).to.include("mimo-v2");
});
// Prueba unitaria 3: La respuesta contiene un mensaje del asistente
pm.test("El mensaje del asistente está presente", function () {
const json = pm.response.json();
pm.expect(json.choices[0].message.content).to.be.a("string").and.not.empty;
});
// Prueba unitaria 4: Uso de tokens reportado
pm.test("El uso de tokens está presente", function () {
const json = pm.response.json();
pm.expect(json.usage.total_tokens).to.be.above(0);
});
Estas comprobaciones validan estado, modelo, contenido y uso de tokens. Apidog las ejecuta automáticamente en cada solicitud. Puedes guardar la colección y ejecutarla en CI con el ejecutor CLI de Apidog.
Cómo usar la API con Python
Para producción, implementa cómo usar la API en Python y asegúrate con pruebas unitarias.
Instalación
pip install openai pytest
La API de MiMo es compatible con OpenAI; el SDK openai funciona sin cambios.
Llamada básica a la API (MiMo-V2-Pro)
# mimo_client.py
from openai import OpenAI
client = OpenAI(
api_key="YOUR_MIMO_API_KEY",
base_url="https://api.xiaomimimo.com/v1"
)
def ask_mimo_pro(prompt: str) -> dict:
"""Llama a la API de MiMo-V2-Pro y devuelve respuesta estructurada."""
response = client.chat.completions.create(
model="mimo-v2-pro",
messages=[{"role": "user", "content": prompt}],
temperature=0.6,
max_tokens=512
)
return {
"content": response.choices[0].message.content,
"model": response.model,
"prompt_tokens": response.usage.prompt_tokens,
"completion_tokens": response.usage.completion_tokens,
"total_tokens": response.usage.total_tokens,
}
if __name__ == "__main__":
result = ask_mimo_pro("¿Qué es una prueba unitaria y por qué es importante?")
print(result["content"])
# Estima el costo usando los precios de MiMo-V2-Pro (nivel ≤256K)
input_cost = (result["prompt_tokens"] / 1_000_000) * 1.00
output_cost = (result["completion_tokens"] / 1_000_000) * 3.00
print(f"Costo estimado: ${input_cost + output_cost:.6f}")
Prueba unitaria para la API de MiMo-V2-Pro
# test_mimo_client.py
import pytest
from unittest.mock import patch, MagicMock
from mimo_client import ask_mimo_pro
@pytest.fixture
def mock_mimo_response():
mock = MagicMock()
mock.choices[0].message.content = (
"Una prueba unitaria verifica que una sola función se comporta correctamente de forma aislada."
)
mock.model = "mimo-v2-pro"
mock.usage.prompt_tokens = 20
mock.usage.completion_tokens = 30
mock.usage.total_tokens = 50
return mock
@patch("mimo_client.client.chat.completions.create")
def test_returns_content(mock_create, mock_mimo_response):
mock_create.return_value = mock_mimo_response
result = ask_mimo_pro("¿Qué es una prueba unitaria?")
assert isinstance(result["content"], str)
assert len(result["content"]) > 0
@patch("mimo_client.client.chat.completions.create")
def test_correct_model(mock_create, mock_mimo_response):
mock_create.return_value = mock_mimo_response
result = ask_mimo_pro("Hola")
assert result["model"] == "mimo-v2-pro"
@patch("mimo_client.client.chat.completions.create")
def test_token_usage_for_pricing(mock_create, mock_mimo_response):
mock_create.return_value = mock_mimo_response
result = ask_mimo_pro("Hola")
assert result["total_tokens"] > 0
assert result["prompt_tokens"] + result["completion_tokens"] == result["total_tokens"]
Ejecuta las pruebas:
pytest test_mimo_client.py -v
Salida esperada:
test_mimo_client.py::test_returns_content PASSED
test_mimo_client.py::test_correct_model PASSED
test_mimo_client.py::test_token_usage_for_pricing PASSED
3 passed in 0.28s
Simular la API asegura pruebas unitarias sin gasto de tokens, importante cuando los precios de MiMo-V2-Pro escalan en CI automatizado.
Mejores prácticas de la API de MiMo-V2-Pro y Omni
-
Rastrea el uso de tokens. Logea
prompt_tokensycompletion_tokenspor llamada para controlar los costos de MiMo-V2-Pro y Omni. - Prototipa en Apidog antes de escribir código. Valida prompts y respuestas visualmente, comparte colecciones con tu equipo.
-
Escribe pruebas unitarias desde el inicio. Simula respuestas con
unittest.mocken Python; usa scripts de prueba en Apidog para cobertura GUI. - Elige el modelo según la tarea. Usa MiMo-V2-Pro para texto con mucho razonamiento; MiMo-V2-Omni para pipelines con imagen, audio o video.
- Mantente bajo 256K de contexto cuando sea posible. El precio se duplica entre 256K y 1M de tokens.
-
Aprovecha el SDK de OpenAI. Cambia solo
base_urlymodelen tu integración existente.
Conclusión
Los precios de MiMo-V2-Pro ($1/1M entrada, $3/1M salida) lo posicionan como uno de los modelos de razonamiento más rentables. Omni lleva ese valor al procesamiento multimodal (texto, imagen, audio, video) en una única API.
Ya sea que inicies con Apidog para validar solicitudes visualmente, o pases a producción con Python y pruebas unitarias, MiMo-V2-Pro y Omni se integran fácilmente en flujos modernos.
Prueba Apidog gratis, sin tarjeta de crédito.
Preguntas Frecuentes
¿Cuáles son los precios de MiMo-V2-Pro?
$1/1M tokens de entrada y $3/1M de salida (hasta 256K). Para 256K–1M tokens: $2/1M entrada, $6/1M salida.
¿Cuáles son los precios de MiMo-V2-Omni?
Similares a MiMo-V2-Pro para texto. Entradas multimodales se tokenizan y facturan junto con tokens de texto. Consulta platform.xiaomimimo.com para tarifas actualizadas.
¿Cómo uso la API de MiMo-V2-Pro?
SDK de Python de OpenAI: base_url="https://api.xiaomimimo.com/v1", model="mimo-v2-pro". Prueba visualmente en Apidog antes de programar.
¿Cómo escribo una prueba unitaria para la API de MiMo?
Simula el cliente con unittest.mock en Python y valida la estructura de respuesta. En Apidog, usa la pestaña Tests con aserciones JavaScript.
¿Diferencia entre MiMo-V2-Pro y MiMo-V2-Omni?
Pro: solo texto, 1T parámetros, contexto 1M. Omni: multimodal (texto, imagen, audio, video), arquitectura unificada.
¿Cómo se comparan los precios de MiMo-V2-Pro con MiMo-V2-Flash?
Flash es mucho más barato ($0.10/1M entrada, $0.30/1M salida), pero Pro tiene mejor razonamiento y contexto. Elige según la complejidad.
¿Dónde accedo a la API de MiMo?
En platform.xiaomimimo.com. También disponible en OpenRouter y Vercel AI Gateway.
Top comments (0)