Вебинары Разобраться в IT Реферальная программа
Программирование Аналитика Дизайн Маркетинг Управление проектами
7 профессий по цене одной
07:05:47:06
дн. ч. мин. сек.
07 Ноя 2024
2 мин
14

Российские исследователи обнаружили, что эмоции способны значительно влиять на поведение крупных языковых моделей.

Исследователи проанализировали, как эмоции влияют на принятие решений языковыми моделями в играх и этических дилеммах. Результаты будут представлены

Главное:

  • Исследование показало влияние эмоций на принятие решений большими языковыми моделями (LLM).
  • Эксперимент использовал более 10 языковых моделей в стратегических играх и этических дилеммах.
  • Результаты будут представлены на конференции NeurIPS 2024 в Ванкувере.
  • Способности к рациональному поведению LLM зависят от их размера и уровня выравнивания.

Эмоции и их влияние на искусственный интеллект

В недавнем исследовании, проведенном Ильей Макаровым из Института AIRI и Андреем Савченко из Лаборатории искусственного интеллекта «Сбера», было изучено, как различные эмоции, такие как гнев, печаль, радость, отвращение и страх, воздействуют на принятие решений большими языковыми моделями (LLM). Научные достижения данного исследования крайне важны для понимания взаимодействия человека и искусственного интеллекта, особенно когда дело касается чувствительных тем, таких как этика и принятие стратегических решений.

Большие языковые модели обучаются на данных, которые могут сохранять эмоциональные предвзятости, поэтому исследователи решили протестировать, насколько эти предвзятости влияют на решения, принимаемые моделями, в ходе экспериментов. Цель заключалась в понимании, могут ли LLM действовать как рациональные агенты или их решения чаще имитируют человеческие эмоциональные реакции.

Методология исследования и его выводы

В экспериментах были использованы более 10 языковых моделей, которые тестировались в разных сценариях, включая «Дилемму заключенного», «Общественное благо» и стереотипные высказывания. Результаты эксперимента продемонстрировали, что размер модели и уровень ее выравнивания играют ключевую роль в интерпретации эмоций. Более крупные модели, такие как GPT-4, несмотря на способность распознавания эмоций, склонны к более рациональному поведению.

Однако, стоит отметить, что гнев, как эмоциональное состояние, может искажать рациональность даже у больших языковых моделей, склоняя их к агрессивным решениям. Это открытие имеет большое значение, так как влияет на то, как LLM могут функционировать в реальных приложениях, где эмоции играют центральную роль.

Перспективы для будущих исследований

Результаты исследования не только подчеркнули существующие проблемы в области эмоционального восприятия LLM, но и заложили основы для будущих исследований в области мультиагентных систем. Начальник группы «ИИ в промышленности» Илья Макаров отметил, что необходимо разрабатывать новые бенчмарки для оценки кооперации агентов, использующих большие языковые модели.

В долгосрочной перспективе эта область исследования может привести к созданию более продвинутых и устойчивых мультиагентных систем, где эмоциональность ИИ будет настраиваться в зависимости от требуемой сферы применения. Это может резко изменить подход к созданию прикладных ИИ-продуктов и их использованию в различных отраслях, включая маркетинг, медицину и социальные услуги.

Таким образом, результаты данного исследования открывают новые горизонты для более глубокого понимания взаимодействия эмоций и искусственного интеллекта, и станет важным шагом для будущих внедрений и разработок в этой высокотехнологичной области.

Добавить комментарий