Улучшения платформы Fine-Tuning: большие модели и новые возможности
Кастомизация моделей является универсальным инструментом, полезным для многих разработчиков ИИ. Например, можно значительно улучшить работу открытых языковых моделей (LLM) для бизнес-задач, дообучив их на специфичных данных. Кроме того, возможно существенно снизить затраты на вывод и задержки, обучая более мелкие, но не менее эффективные модели.
Цель платформы Together Fine-Tuning заключается в упрощении процесса обучения моделей для разработчиков ИИ, помогая им быстро создавать лучшие модели для своих приложений, предлагая удобные и доступные инструменты. Этот релиз демонстрирует новый пакет улучшений, значительно расширяющий возможности обучения: от нативной поддержки более десятка последних LLM до новых опций DPO и улучшенных интеграций с Hugging Face Hub.
В 2025 году было выпущено множество моделей с более чем 100 миллиардами параметров, таких как DeepSeek-R1, Qwen3-235B и Llama 4 Maverick, которые предлагают значительный скачок в возможностях, иногда соперничая с самыми мощными проприетарными моделями. С помощью дообучения можно дополнительно уточнить способности этих моделей, подстраивая их под конкретные задачи.
Теперь вы можете обучать последние большие модели на платформе Together Fine-Tuning! Мы внедрили последние оптимизации обучения и тщательно спроектировали нашу платформу, что сделало возможным легкое обучение моделей с сотнями миллиардов параметров по низкой цене. Мы недавно объявили о доступности дообучения gpt-oss от OpenAI на нашей платформе и теперь поддерживаем еще больше семейств моделей.
С недавним прогрессом в задачах, таких как обработка длинных документов и взаимодействие агентов, надежная работа с длинными контекстами становится важной как никогда. Мы обновили наши обучающие системы и нашли способы увеличить максимальную поддерживаемую длину контекста для большинства наших моделей без дополнительных затрат. В среднем вы можете ожидать увеличения длины контекста в 2-4 раза.
Сегодня мы делаем доступными для дообучения множество моделей с Hugging Face Hub через Together AI. Если существует модель, уже адаптированная для соответствующей задачи, она может быть использована для дальнейшего обучения и улучшения.
Улучшите API пакетного вывода: новый интерфейс и поддержка моделей
Together AI ускоряет обучение на 90% с использованием NVIDIA Blackwell
Похожие статьи
Исследователи из UC Berkeley и UCSF используют ИИ для медицины
Исследователи из UC Berkeley и UCSF разрабатывают ИИ для улучшения медицинской визуализации.
Salesforce запускает Headless 360 для AI-агентов
Salesforce представила Headless 360, открывающий все возможности платформы для AI-агентов.
OpenAI обновляет Codex, чтобы конкурировать с Anthropic
OpenAI обновила Codex, добавив новые функции для конкуренции с Anthropic.