DEV Community

Cover image for Precios de MiMo-V2-Pro y Omni: Guía de Uso de la API
Roobia
Roobia

Posted on • Originally published at apidog.com

Precios de MiMo-V2-Pro y Omni: Guía de Uso de la API

TL;DR

Los precios de MiMo-V2-Pro comienzan en $1/1M de tokens de entrada y $3/1M de tokens de salida (contexto ≤256K). Los precios de MiMo-V2-Omni cubren entradas multimodales de texto, imagen, audio y video en un modelo unificado. Ambos modelos están disponibles vía una API compatible con OpenAI en platform.xiaomimimo.com. Usa Apidog para probar la API visualmente, o Python para integraciones de producción y respalda tu integración con una prueba unitaria.

Prueba Apidog hoy

Introducción

Xiaomi lanzó tres nuevos modelos de IA el 18 de marzo de 2026. Los desarrolladores pusieron el foco en MiMo-V2-Pro y MiMo-V2-Omni: uno orientado a razonamiento profundo, otro a capacidades multimodales reales. Si buscas detalles sobre precios de MiMo-V2-Pro, precios de Omni o cómo usar la API en tu stack, esta guía va directo al grano. Aquí desglosamos los precios, las capacidades y te mostramos cómo integrarlo rápidamente: primero con un flujo visual usando Apidog, luego con Python y pruebas unitarias para producción.

💡 Tip: Antes de escribir código para la API de MiMo-V2-Pro u Omni, descarga Apidog gratis. Prueba solicitudes visualmente, valida respuestas, agrega aserciones de pruebas unitarias y depura el uso de tokens al instante, todo sin gastar tokens ni escribir Python.

Desglose de precios de MiMo-V2-Pro y MiMo-V2-Omni

Entender los precios de MiMo-V2-Pro y los precios de Omni es crucial antes de consumir la API. Ambos usan precios escalonados por tokens, competitivos para cargas de producción.

Precios de MiMo-V2-Pro: por niveles según la longitud del contexto

Longitud del Contexto Entrada (por 1M de tokens) Salida (por 1M de tokens)
≤ 256K tokens $1.00 $3.00
256K – 1M tokens $2.00 $6.00

La estructura escalonada corresponde a la ventana de 1M de tokens del modelo. Si trabajas por debajo de los 256K tokens, los precios de MiMo-V2-Pro son muy competitivos (la salida cuesta 1/8 del precio de Claude Opus). Para procesamiento de bases de código grandes o flujos muy largos, aplica el precio superior.

Precios de MiMo-V2-Omni

Los precios de Omni siguen la misma lógica, pero admiten entrada multimodal. MiMo-V2-Omni procesa texto, imagen, audio y video en una sola arquitectura, sin módulos externos. Los tokens de imagen/audio se suman a los de texto, por lo que el precio escala según la riqueza de tu entrada.

  • Para tareas solo de texto, precios de Omniprecios de MiMo-V2-Pro.
  • Para cargas multimodales, espera un mayor número de tokens por solicitud.

Comparación de precios de la familia MiMo-V2

Modelo Entrada (por 1M) Salida (por 1M) Ventana de Contexto Modalidades
MiMo-V2-Pro $1.00 / $2.00* $3.00 / $6.00* 1M tokens Texto
MiMo-V2-Omni ~$1.00* ~$3.00* 256K tokens Texto, Imagen, Audio, Video
MiMo-V2-Flash $0.10 $0.30 256K tokens Texto

*Escalonado o aproximado. Verifica tarifas actuales en platform.xiaomimimo.com

Elige MiMo-V2-Flash para tareas de texto simples y bajo costo. MiMo-V2-Pro es ideal para razonamiento profundo y gran contexto. Usa MiMo-V2-Omni cuando necesites pipelines multimodales; los precios de Omni cubren todos los tipos de entrada en una sola llamada.

Capacidades de la API de MiMo-V2-Pro y Omni

Antes de ver cómo usar la API, define para qué sirve cada modelo:

MiMo-V2-Pro:

  • 1 billón de parámetros, 42 mil millones activos.
  • Ventana de contexto de 1M de tokens: perfecto para bases de código grandes o tareas largas.
  • Predicción Multi-Token (MTP): inferencia más rápida.
  • Razonamiento autónomo, ejecución de herramientas, ingeniería de software.
  • Top #1 en su rango de precios en el Índice de Inteligencia de Análisis Artificial.

MiMo-V2-Omni:

  • Procesa texto, imagen, audio, video nativamente.
  • Codificadores de imagen/audio integrados.
  • Útil para OCR, transcripción, análisis de video, razonamiento intermodal.

Ambos modelos usan endpoints compatibles con OpenAI en platform.xiaomimimo.com. Puedes cambiar entre ellos en cualquier integración del SDK de OpenAI con mínimos cambios.

Cómo usar la API con Apidog

Apidog es la vía más rápida para explorar cómo usar la API sin programar. Ofrece una GUI completa para enviar solicitudes, ver respuestas y ejecutar aserciones de pruebas unitarias. Descarga Apidog gratis antes de iniciar.

Configuración de solicitudes de API de MiMo-V2-Pro y Omni en Apidog

Sigue estos pasos:

  1. Abre Apidog y crea un nuevo proyecto (MiMo-V2 API Tests).
  2. Crea una nueva solicitud HTTP:
    • Método: POST
    • URL: https://api.xiaomimimo.com/v1/chat/completions
  3. Agrega estos encabezados:
Clave Valor
Authorization Bearer YOUR_MIMO_API_KEY
Content-Type application/json
  1. Cuerpo de la solicitud (Body → JSON):
  • Para MiMo-V2-Pro:
{
  "model": "mimo-v2-pro",
  "messages": [
    {
      "role": "user",
      "content": "Escribe una función de Python que compruebe si un número es primo, y explica cómo la probarías unitariamente."
    }
  ],
  "temperature": 0.6,
  "max_tokens": 512
}
Enter fullscreen mode Exit fullscreen mode
  • Para MiMo-V2-Omni (entrada de imagen):
{
  "model": "mimo-v2-omni",
  "messages": [
    {
      "role": "user",
      "content": [
        { "type": "text", "text": "Describe lo que ves en esta imagen." },
        { "type": "image_url", "image_url": { "url": "https://example.com/diagram.png" } }
      ]
    }
  ],
  "max_tokens": 300
}
Enter fullscreen mode Exit fullscreen mode
  1. Haz clic en Enviar. Apidog muestra la respuesta y el uso de tokens, permitiendo rastrear los costos de precios de MiMo-V2-Pro y precios de Omni en tiempo real.

Escribir pruebas unitarias para la API de MiMo-V2-Pro y Omni en Apidog

Apidog permite añadir scripts de prueba por solicitud (pestaña Tests):

// Prueba unitaria 1: El estado HTTP es 200
pm.test("El código de estado es 200", function () {
  pm.response.to.have.status(200);
});

// Prueba unitaria 2: Modelo correcto devuelto
pm.test("El ID del modelo es correcto", function () {
  const json = pm.response.json();
  pm.expect(json.model).to.include("mimo-v2");
});

// Prueba unitaria 3: La respuesta contiene un mensaje del asistente
pm.test("El mensaje del asistente está presente", function () {
  const json = pm.response.json();
  pm.expect(json.choices[0].message.content).to.be.a("string").and.not.empty;
});

// Prueba unitaria 4: Uso de tokens reportado
pm.test("El uso de tokens está presente", function () {
  const json = pm.response.json();
  pm.expect(json.usage.total_tokens).to.be.above(0);
});
Enter fullscreen mode Exit fullscreen mode

Estas comprobaciones validan estado, modelo, contenido y uso de tokens. Apidog las ejecuta automáticamente en cada solicitud. Puedes guardar la colección y ejecutarla en CI con el ejecutor CLI de Apidog.

Cómo usar la API con Python

Para producción, implementa cómo usar la API en Python y asegúrate con pruebas unitarias.

Instalación

pip install openai pytest
Enter fullscreen mode Exit fullscreen mode

La API de MiMo es compatible con OpenAI; el SDK openai funciona sin cambios.

Llamada básica a la API (MiMo-V2-Pro)

# mimo_client.py
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_MIMO_API_KEY",
    base_url="https://api.xiaomimimo.com/v1"
)

def ask_mimo_pro(prompt: str) -> dict:
    """Llama a la API de MiMo-V2-Pro y devuelve respuesta estructurada."""
    response = client.chat.completions.create(
        model="mimo-v2-pro",
        messages=[{"role": "user", "content": prompt}],
        temperature=0.6,
        max_tokens=512
    )
    return {
        "content": response.choices[0].message.content,
        "model": response.model,
        "prompt_tokens": response.usage.prompt_tokens,
        "completion_tokens": response.usage.completion_tokens,
        "total_tokens": response.usage.total_tokens,
    }

if __name__ == "__main__":
    result = ask_mimo_pro("¿Qué es una prueba unitaria y por qué es importante?")
    print(result["content"])

    # Estima el costo usando los precios de MiMo-V2-Pro (nivel ≤256K)
    input_cost = (result["prompt_tokens"] / 1_000_000) * 1.00
    output_cost = (result["completion_tokens"] / 1_000_000) * 3.00
    print(f"Costo estimado: ${input_cost + output_cost:.6f}")
Enter fullscreen mode Exit fullscreen mode

Prueba unitaria para la API de MiMo-V2-Pro

# test_mimo_client.py
import pytest
from unittest.mock import patch, MagicMock
from mimo_client import ask_mimo_pro

@pytest.fixture
def mock_mimo_response():
    mock = MagicMock()
    mock.choices[0].message.content = (
        "Una prueba unitaria verifica que una sola función se comporta correctamente de forma aislada."
    )
    mock.model = "mimo-v2-pro"
    mock.usage.prompt_tokens = 20
    mock.usage.completion_tokens = 30
    mock.usage.total_tokens = 50
    return mock

@patch("mimo_client.client.chat.completions.create")
def test_returns_content(mock_create, mock_mimo_response):
    mock_create.return_value = mock_mimo_response
    result = ask_mimo_pro("¿Qué es una prueba unitaria?")
    assert isinstance(result["content"], str)
    assert len(result["content"]) > 0

@patch("mimo_client.client.chat.completions.create")
def test_correct_model(mock_create, mock_mimo_response):
    mock_create.return_value = mock_mimo_response
    result = ask_mimo_pro("Hola")
    assert result["model"] == "mimo-v2-pro"

@patch("mimo_client.client.chat.completions.create")
def test_token_usage_for_pricing(mock_create, mock_mimo_response):
    mock_create.return_value = mock_mimo_response
    result = ask_mimo_pro("Hola")
    assert result["total_tokens"] > 0
    assert result["prompt_tokens"] + result["completion_tokens"] == result["total_tokens"]
Enter fullscreen mode Exit fullscreen mode

Ejecuta las pruebas:

pytest test_mimo_client.py -v
Enter fullscreen mode Exit fullscreen mode

Salida esperada:

test_mimo_client.py::test_returns_content        PASSED
test_mimo_client.py::test_correct_model          PASSED
test_mimo_client.py::test_token_usage_for_pricing PASSED

3 passed in 0.28s
Enter fullscreen mode Exit fullscreen mode

Simular la API asegura pruebas unitarias sin gasto de tokens, importante cuando los precios de MiMo-V2-Pro escalan en CI automatizado.

Mejores prácticas de la API de MiMo-V2-Pro y Omni

  1. Rastrea el uso de tokens. Logea prompt_tokens y completion_tokens por llamada para controlar los costos de MiMo-V2-Pro y Omni.
  2. Prototipa en Apidog antes de escribir código. Valida prompts y respuestas visualmente, comparte colecciones con tu equipo.
  3. Escribe pruebas unitarias desde el inicio. Simula respuestas con unittest.mock en Python; usa scripts de prueba en Apidog para cobertura GUI.
  4. Elige el modelo según la tarea. Usa MiMo-V2-Pro para texto con mucho razonamiento; MiMo-V2-Omni para pipelines con imagen, audio o video.
  5. Mantente bajo 256K de contexto cuando sea posible. El precio se duplica entre 256K y 1M de tokens.
  6. Aprovecha el SDK de OpenAI. Cambia solo base_url y model en tu integración existente.

Conclusión

Los precios de MiMo-V2-Pro ($1/1M entrada, $3/1M salida) lo posicionan como uno de los modelos de razonamiento más rentables. Omni lleva ese valor al procesamiento multimodal (texto, imagen, audio, video) en una única API.

Ya sea que inicies con Apidog para validar solicitudes visualmente, o pases a producción con Python y pruebas unitarias, MiMo-V2-Pro y Omni se integran fácilmente en flujos modernos.

Prueba Apidog gratis, sin tarjeta de crédito.

Preguntas Frecuentes

¿Cuáles son los precios de MiMo-V2-Pro?

$1/1M tokens de entrada y $3/1M de salida (hasta 256K). Para 256K–1M tokens: $2/1M entrada, $6/1M salida.

¿Cuáles son los precios de MiMo-V2-Omni?

Similares a MiMo-V2-Pro para texto. Entradas multimodales se tokenizan y facturan junto con tokens de texto. Consulta platform.xiaomimimo.com para tarifas actualizadas.

¿Cómo uso la API de MiMo-V2-Pro?

SDK de Python de OpenAI: base_url="https://api.xiaomimimo.com/v1", model="mimo-v2-pro". Prueba visualmente en Apidog antes de programar.

¿Cómo escribo una prueba unitaria para la API de MiMo?

Simula el cliente con unittest.mock en Python y valida la estructura de respuesta. En Apidog, usa la pestaña Tests con aserciones JavaScript.

¿Diferencia entre MiMo-V2-Pro y MiMo-V2-Omni?

Pro: solo texto, 1T parámetros, contexto 1M. Omni: multimodal (texto, imagen, audio, video), arquitectura unificada.

¿Cómo se comparan los precios de MiMo-V2-Pro con MiMo-V2-Flash?

Flash es mucho más barato ($0.10/1M entrada, $0.30/1M salida), pero Pro tiene mejor razonamiento y contexto. Elige según la complejidad.

¿Dónde accedo a la API de MiMo?

En platform.xiaomimimo.com. También disponible en OpenRouter y Vercel AI Gateway.

Top comments (0)