Компания Microsoft пополнила своё семейство генеративных моделей Phi новой разработкой Phi-4. По утверждению создателей, она обучалась на более качественном наборе данных, за счёт чего в итоге превзошла предыдущие версии Phi, а также некоторые модели аналогичного характера.
- Phi-4 относится к малым языковым моделям и имеет 14 миллиардов параметров. Она конкурирует с аналогичными моделями малых размеров – GPT-4o mini, Gemini 2.0 Flash и Claude 3.5 Haiku. За счет размера их проще и дешевле развернуть на различных устройствах, нежели модели больших форматов.
- Как указывается в блоге компании, Phi-4 превосходит аналогичные и более крупные модели по качеству и точности выдаваемых ответов. В отдельности подчеркивается, что модель особенно хорошо справляется с решением математических задач благодаря использованию высококачественных синтетических и органических наборов данных, а также инновационных методов обучения.
- Набор минусов у Phi-4 – стандартный для любой ИИ-модели: вероятность периодических «галлюцинаций» или слишком пространных ответов, в том числе из-за чересчур буквального понимания запросов.
- Phi-4 выпущена в качестве превью-версии на платформе для разработчиков Azure AI Foundry от Microsoft – её использование на данный момент разрешено только по лицензии в исследовательских целях. Также инструмент планируют загрузить на Hugging Face.
Top comments (0)