El 31 de enero de 2025, OpenAI presentó su modelo más reciente, el modelo de lenguaje grande o3-mini. El modelo de lenguaje grande OpenAI o3-mini es el más rentable de la serie de razonamiento de OpenAI. El modelo OpenAI o3-mini está optimizado para el razonamiento STEM (ciencia, tecnología, ingeniería y matemáticas). Si te preguntas cómo funciona el modelo OpenAI o3-mini y cómo puedes acceder a él, ¡te lo contamos!
En este artículo, exploraremos el modelo OpenAI o3-mini y sus capacidades de razonamiento.
¿Preparado?
Vamos a sumergirnos.
TL; DR
- OpenAI introdujo uno de los modelos de razonamiento más avanzados, el modelo o3-mini, el 31 de enero de 2025.
- Puedes acceder al modelo OpenAI o3-mini mediante la API o experimentarlo a través de ChatGPT y TextCortex.
- El modelo OpenAI o3-mini está optimizado para el razonamiento STEM.
- El modelo OpenAI o3-mini ofrece un rendimiento igual al o1 en el modo de esfuerzo de razonamiento medio, pero produce resultados mucho más rápidos.
- Si quieres integrar el modelo OpenAI o3-mini en tu flujo de trabajo personal o profesional, TextCortex es el camino a seguir.
OpenAI o3-mini Reseña
El modelo OpenAI o3-mini es el primer modelo de razonamiento pequeño de OpenAI, introducido el 31 de enero de 2025, que admite características muy solicitadas por los desarrolladores, como llamadas a funciones, salidas estructuradas y mensajes de desarrollador. El modelo OpenAI o3-mini puede elegir una de las 3 opciones de esfuerzo de razonamiento: bajo, medio y alto. Reducir el esfuerzo de razonamiento puede dar como resultado respuestas más rápidas y menos tokens utilizados en el razonamiento de una respuesta.

¿Cómo acceder a OpenAI o3-mini?
El modelo OpenAI o3-mini está disponible como ChatGPT y API a partir de la fecha de lanzamiento. Para acceder al modelo o3-mini de OpenAI a través de ChatGPT, necesitas tener una suscripción Plus, Team o Pro. Los usuarios Plus Team pueden utilizar el modelo o3-mini con un límite de 150 mensajes al día. Además, o3-mini funciona con la búsqueda para encontrar respuestas actualizadas con enlaces a fuentes web relevantes. Otra forma de acceder al modelo o3-mini de OpenAI es utilizarlo como API.

El método de acceso con el que puedes integrar el modelo OpenAI o3-mini en el flujo de trabajo de tu empresa es aprovecharlo a través de TextCortex. TextCortex ofrece a sus usuarios múltiples bibliotecas LLM optimizadas para diferentes tareas, incluida o3-mini. Todo lo que tienes que hacer para utilizar el modelo o3-mini a través de TextCortex es registrarte y seleccionar el modelo o3-mini en la configuración del chat.

OpenAI o3-mini Precios
Si quieres utilizar OpenAI o3-mini a través de ChatGPT, tienes que suscribirte a los planes ChatGPT Plus, Team o Pro. Los planes de precios de ChatGPT son los siguientes:
- Plus: 20 $ / mes
- Equipo: 30 $ / mes facturados mensualmente
- Equipo: 24 $ / mes facturados anualmente
- Pro: 200 $ / mes
Las suscripciones Plus Team sólo tienen 150 solicitudes al día con o3-mini. Si quieres un uso ilimitado de o3-mini, tienes que adquirir la suscripción ChatGPT Pro.

Si quieres utilizar el modelo OpenAI o3-mini con una ventana de contexto de 200K como API, el precio es el siguiente:
- Entrada: 1,10 $ / 1M de fichas
- Entrada en caché: 0,55 $ / 1M de fichas
- Rendimiento: 4,40 $ / 1M de fichas

Capacidades de OpenAI o3-mini
El modelo OpenAI o3-mini es el modelo de razonamiento más rentable desarrollado y publicado por OpenAI. El modelo tiene 3 opciones de esfuerzo de razonamiento: bajo, medio y alto. Veamos juntos las capacidades y características del o3-mini.
Razonamiento STEM
El modelo OpenAI o3-mini está optimizado para el razonamiento STEM (ciencia, tecnología, ingeniería y matemáticas). La opción de esfuerzo de razonamiento medio del modelo OpenAI o3-mini iguala el rendimiento en matemáticas, codificación y ciencias de o1, al tiempo que genera resultados más rápidos. El modelo o3-mini también proporciona respuestas más precisas y claras que el modelo OpenAI o1-mini. Además, con un esfuerzo de razonamiento medio, o3-mini iguala el rendimiento de o1 en evaluaciones de razonamiento e inteligencia como GPQA y AIME.

Velocidad y rendimiento del modelo
Aunque el esfuerzo de razonamiento medio del modelo OpenAI o3-mini es igual al del modelo OpenAI o1, puede generar resultados mucho más rápidos que éste. En las pruebas A/B, o3-mini ofrece respuestas un 24% más rápidas que o1-mini, con un tiempo medio de respuesta de 7,7 segundos frente a 10,16 segundos.

Seguridad
Durante el desarrollo del modelo OpenAI o3-mini, se utilizó el método de alineación deliberativa para generar resultados seguros y no peligrosos. Este método enseña directamente a los LLM de razonamiento el texto de especificaciones de seguridad interpretables y escritas por humanos, y los entrena para razonar explícitamente sobre estas especificaciones antes de responder. Al igual que OpenAI o1, o3-mini supera significativamente a GPT-4o en evaluaciones desafiantes de seguridad y jailbreak.

TextCortex : Integra o3-mini en tu flujo de trabajo
Si quieres integrar el modelo OpenAI o3-mini en tu flujo de trabajo profesional o personal y aligerar tu carga de trabajo, TextCortex está diseñado para ti. TextCortex ofrece a sus usuarios múltiples bibliotecas LLM, incluidas o3-mini y Gemini 2.0 Flash. Puedes utilizar el LLM que elijas en tus tareas específicas y completar tus tareas mucho más rápidamente y con gran calidad. Además de la biblioteca de múltiples LLMs, TextCortex también ofrece a sus usuarios funciones de búsqueda web, un potente GAR, bases de conocimiento, personas individuales y generador de imágenes AI.
TextCortex ofrece tanto una aplicación web como una práctica extension para el navegador. La extension navegador TextCortex funciona perfectamente con más de 30.000 aplicaciones y sitios web, incluidas plataformas populares como Gmail, Pages y Google Docs. Una vez instalada, la extension navegador te permite generar rápidamente respuestas a correos electrónicos. Además, su integración con procesadores de texto como Google Docs y Pages desbloquea aún más funciones. Puedes utilizarla para:
- Generar texto
- Parafrasear artículos
- Traducir a otros idiomas
- Escribe frases de seguimiento
- Crea esquemas para tus temas
Preguntas frecuentes
¿Es el o3-mini mejor que el o1?
El modelo OpenAI o3-mini tiene el mismo rendimiento de razonamiento que el modelo o1 con un esfuerzo de razonamiento medio, pero puede producir resultados mucho más rápidos. Si buscas un LLM para tareas de razonamiento pesadas, el modelo o3-mini es una opción mejor que el o1.
¿Está disponible ChatGPT o3?
El modelo OpenAI o3-mini está disponible y accesible a través de ChatGPT y la API. Puedes seleccionar el modelo o3-mini de OpenAI en los ajustes de chat de ChatGPT. También puedes utilizar ZenoChat de TextCortex para acceder al modelo o3-mini.
¿Qué es o3-mini high?
El modelo o3-mini desarrollado por OpenAI tiene 3 modos de esfuerzo de razonamiento, y alto es el más avanzado de estos modos. Puedes utilizar el modelo o3-mini al máximo rendimiento activando el modo alto de OpenAI o3-mini, pero la velocidad de salida disminuirá.