Вебинары Разобраться в IT Реферальная программа
Программирование Аналитика Дизайн Маркетинг Управление проектами
22 Окт 2024
2 мин
141

Nvidia анонсировала LLM Llama-3.1-Nemotron-70B: Новый уровень качественного файн-тюнинга для интеллектуальных рассуждений.

Новая модель, основанная на методе RLHF, демонстрирует превосходные результаты в логических задачах, обгоняя Llama-3.1 и gpt-4o.

Главное:

  • NVIDIA представила новую модель LLM LLAMA-3.1-NEMOTRON-70B, улучшенную для задач рассуждений.
  • Модель превосходит Llama-3.1 и gpt-4o в тестах на логические и математические задания.
  • Размер контекста модели составляет 128k токенов, что позволяет эффективно обрабатывать большие объемы данных.

Новые достижения LLM LLAMA-3.1-NEMOTRON-70B

NVIDIA представила свою новую языковую модель LLAMA-3.1-NEMOTRON-70B, которая прошла успешный финальный этап fine-tuning с применением метода обучения с подкреплением (RLHF), а именно REINFORCE. Этот метод в частности направлен на улучшение качественного анализа и построения логических рассуждений. Результаты тестирования показали, что модель превышает предшествующие решения в задачах, связанных с логикой и математикой, продемонстрировав эффективность в интеллектуальной обработке более 500 сложных запросов пользователей.

Сравнение с другими моделями показало, что LLAMA-3.1-NEMOTRON-70B превосходит такие версии, как Llama-3.1 размером 405B и gpt-4o. Это подчеркивает значительный шаг вперед в качестве обработки задач, связанных с логическими и математическими этюдами, что может изменить подход к разработке алгоритмов для широкого спектра применения.

Тестирование и результаты

В ходе бенчмарков, модель LLAMA-3.1-NEMOTRON-70B проявила отличные результаты в метрике Arena Hard, предназначенной для оценки сложных логических задач. Хотя модель не была адаптирована специально для написания кода, на тестах по редактированию кода она продемонстрировала результат на 3.7% хуже, чем базовая версия Llama-3.1-70B.

Важно отметить, что экономия ресурсов для создания и работы с такими моделями также выражается в их размере контекста, который составляет 128k токенов. Это позволяет большему числу слов и фраз быть включенными в обработку информации в одной сессии, тем самым повышая качество взаимодействия с пользователями и снижая время на анализ.

Перспективы и применение

Модель LLAMA-3.1-NEMOTRON-70B открывает новые горизонты в применении языковых моделей для решения сложных задач в различных областях — от образования до финансов. С увеличением объемов данных, обрабатываемых различными сервисами, значительно возрастает потребность в высококачественных языковых моделях. По данным исследований, использование современных языковых моделей способно сократить время на выполнение рутинных задач до 30%.

С дальнейшим развитием технологий и улучшением алгоритмов, можно ожидать, что такие модели, как LLAMA-3.1-NEMOTRON-70B, займут важное место не только в научных исследованиях, но и в проектировании продвинутых систем помощи в принятии решений, что открывает возможности для новейших приложений в искусственном интеллекте.

Добавить комментарий