Вебинары Разобраться в IT Реферальная программа
Программирование Аналитика Дизайн Маркетинг Управление проектами
25 Дек 2024
2 мин
8

Google интегрирует Claude от Anthropic для оптимизации AI Gemini

Подрядчики Google сравнивают AI Gemini с моделью Claude от Anthropic для улучшения производительности, однако нет информации о разрешении на тестирование.

Главное:

  • Google использует модель Claude от компании Anthropic для улучшения своей AI модели Gemini.
  • Подрядчики оценивают ответы Gemini и Claude, сравнивая их по критериям правдивости и многословия.
  • Существует риск, что Google не получила разрешение от Anthropic на использование модели Claude для тестирования.

Сравнение AI моделей: Gemini и Claude

В последнем отчете TechCrunch сообщается, что Google применяет внешнюю модель Claude от Anthropic для повышения качества своего AI Gemini. Параллельное сравнение производительности новых технологий разработано для оценки их ответов по стандартным критериям, таким как правдивость и многословие. Обычно такая оценка выполняется путем тестирования моделей на общепринятых метриках, что позволяет избежать субъективной экспертизы. Даже в условиях жесткой конкуренции, к реальным результатам важно подходить научно обоснованно.

На практике подрядчики, участвующие в этом процессе, имеют всего 30 минут для анализа ответа каждой модели. Интересно, что в одном из внутренних отчетов подрядчики упомянули о том, что Claude демонстрирует более строгий подход к безопасности ответов, чем Gemini. В случаях, когда Claude считал контент небезопасным, он просто отказывался отвечать.

Безопасность и точность AI

Сравнение AI решений не ограничивается только производительностью. Безопасность остается важнейшим аспектом, особенно в контексте здоровья и благополучия пользователей. Полноправный участник AI-рынка, Claude, считается более безопасным выбором для многих приложений, в то время как Gemini уже сталкивается с критикой из-за генерируемой неточной информации.

Например, в одном из случаев ознакомления с ответом Gemini, подрядчики отметили, что в нем содержалось "огромное нарушение безопасности" за включение "наготы и связанных элементов". Это поднимает важный вопрос, насколько глубоко нам следует проверять и контролировать контент, создаваемый AI, прежде чем он доберется до конечного пользователя.

Проблемы конкурентной политики

Интересный аспект заключается в том, что коммерческие соглашения между Anthropic и Google запрещают использование модели Claude для обучения собственных AI систем или создания конкурирующих продуктов без предварительного одобрения. На данный момент остаются неопределенными детали получения Google разрешений на использование Claude для своих нужд. В этом контексте возникает множество вопросов о том, насколько этично и законно проводить подобные сравнения, а также о прозрачности действий крупных игроков AI-рынка.

Безусловно, это обостряет конкуренцию в облачной среде AI и в то же время подчеркивает важность соблюдения закондательств и этических норм в технологическом прогрессе.

Добавить комментарий