Publicado 01/05/2025 03:15

Los nuevos modelos Phi-4-reasoming de Microsoft integran capacidades de razonamiento, equilibrando tamaño y rendimiento

Archivo - FILED - 26 March 2021, Bavaria, Munich: The Microsoft logo hangs on the façade of an office building in Parkstadt Schwabing in the north of the Bavarian capital. The European Commission on Tuesday told Microsoft that it suspects the company may
Archivo - FILED - 26 March 2021, Bavaria, Munich: The Microsoft logo hangs on the façade of an office building in Parkstadt Schwabing in the north of the Bavarian capital. The European Commission on Tuesday told Microsoft that it suspects the company may - Peter Kneffel/dpa - Archivo

   MADRID, 1 May. (Portaltic/EP) -

   Microsoft ha ampliado su familia de modelos de lenguaje pequeños (SLM) Phi, con los nuevos Phi-4-reasoning, Phi-4-reasoning-plus y Phi-4-mini-reasoning, que integran capacidades de razonamiento con resultados equiparables a los de modelos más grandes, equilibrando tamaño y rendimiento, sobre todo, en ámbitos como el razonamiento matemático y preguntas de ciencia.

   La tecnológica lanzó los modelos SLM Phi-4-multimodal y Phi-4-mini en el mes de febrero, diseñados para ofrecer a los desarrolladores avanzadas capacidades de Inteligencia Artificial (IA) en tareas de procesamiento de voz, texto e imágenes.

   Ahora, Microsoft ha ampliado esta familia con nuevos modelos que integran capacidades de razonamiento, redefiniendo "lo que es posible con una IA pequeña y eficiente", de la mano de Phi-4-reasoning, Phi-4-reasoning-plus y Phi-4-mini-reasoning.

   Como ha explicado la compañía en un comunicado en su blog, los modelos de razonamiento se entrenan para aprovechar el escalamiento en tiempo de inferencia y "realizar tareas complejas que exigen descomposición en varios pasos y reflexión interna", destacando en tareas de matemáticas y en aplicaciones de agencia.

   Así, aunque habitualmente estas capacidades suelen encontrarse en modelos de gran tamaño, los nuevos modelos de razonamiento Phi-4 introducen "una nueva categoría de modelos de lenguaje pequeños", que es posible gracias a un entrenamiento basado en destilación, aprendizaje por refuerzo y datos de alta calidad, equilibrando tamaño y rendimiento.

   Es decir, Microsoft ha conseguido ofrecer modelos que son lo suficientemente pequeños para ejecutarse en entornos de baja latencia, pero que mantienen sólidas capacidades de razonamiento con las que, incluso, "rivalizan con modelos mucho más grandes". Con ello, la compañía posibilita que dispositivos con recursos limitados realicen tareas de razonamiento complejas de forma eficiente.

   En este marco, Phi-4-reasoning es un modelo de razonamiento de peso abierto con 14.000 millones de parámetros, y ha sido entrenado con demostraciones de razonamiento "cuidadosamente seleccionadas" del modelo o3-mini de OpenAI, con lo que es capaz de generar cadenas de razonamiento detalladas que aprovechan eficazmente el cómputo adicional en tiempo de inferencia.

   Por su parte, Phi-4-reasoning-plus se basa en las capacidades de Phi-4-reasoning, pero dispone de un entrenamiento más extenso basado en aprendizaje de refuerzo para utilizar más tiempo de inferencia, utilizando 1,5 veces más tokens que Phi-4-reasoning. Con ello, logra ofrecer una mayor precisión en sus respuestas y ejecución de tareas.

   Al respecto, Microsoft asegura que ambos modelos alcanzan un rendimiento superior al de otros modelos equiparables del sector, como o1-mini de OpenAI y DeepSeek-R1-Distill-Llama-70B, en la mayoría de las pruebas de referencia, incluido el razonamiento matemático y preguntas de ciencias de nivel de doctorado. Asimismo, presentan altas capacidades en codificación, resolución de problemas algorítmicos y planificación.

   Microsoft también ha presentado el modelo Phi-4-mini-reasoning. En este caso, está diseñado para satisfacer la demanda de un modelo de razonamiento compacto y está optimizado para el razonamiento matemático, ofreciendo resoluciones de problemas paso a paso, incluso en entornos con limitaciones de computación o latencia.

   Para ello, ha sido entrenado con datos sintéticos generados por el modelo Deepseek-R1, de manera que logra equilibrar la eficiencia con una capacidad de razonamiento avanzado. Según ha matizado Microsoft, está enfocado a aplicaciones educativas e implementación ligera en sistemas edge o móviles.

   Con todo ello, los modelos Phi-4-reasoning, Phi-4-reasoning-plus y Phi-4-mini-reasoning, ya están disponibles para su uso en Azure AI Foundry y Hugging Face.

Contador