Главное:
- Исследование MIT показало, что генеративные модели ИИ не обладают истинным пониманием мира.
- ИИ успешно предсказывает вероятные слова, но не может адаптироваться к сложным системам.
- Эксперименты выявили ограничения в логических рассуждениях и навигации у современных ИИ-моделей.
Ограничения генеративного ИИ
Недавнее исследование, проведенное учеными из Массачусетского технологического института (MIT), выявило принципиальные ограничения современных генеративных моделей искусственного интеллекта, таких как GPT-4. Они демонстрируют способность генерировать правдоподобные ответы, однако не могут по-настоящему «понимать» сложные системы и взаимодействия в реальном мире. Это открытие подчеркивает важность осознания ключевых различий между имитацией интеллекта и его настоящим пониманием.
В рамках эксперимента исследователи оценили, как ИИ может генерировать инструкции для навигации по улицам Нью-Йорка. Несмотря на то, что модели показали хорошие результаты при выполнении строго определённых задач, они столкнулись с трудностями при возникновении нестандартных условий, создавая рыночные карты, которые не совпадали с реальными физическими ориентациями.
Методология исследования
Для оценки способности ИИ к логическим рассуждениям и адаптации исследователи использовали класс задач, известных как детерминированные конечные автоматы (DFA). Они сфокусировались на ситуациях, требующих гибкости, таких как вождение по улицам и игра в «Отелло». В этих задачах ИИ смог успешно восстановить карты улиц и предсказывать движение, когда условия были чётко определены. Однако добавление новых факторов, например, необходимость объезда пробок, выводило модели на неверные представления о местности.
Это исследование подчеркивает, что даже современные продвинутые модели генеративного ИИ ограничены в своей способности обрабатывать сложные и изменчивые условия, что ставит под сомнение их использование в задачах, требующих истинного понимания или адаптации.
Параллели с другими исследованиями
Подобные выводы подтверждаются и другими исследованиями, включая недавнюю работу группы исследователей из компании Apple. В их статье рассматриваются ограничения математического рассуждения в больших языковых моделях, которые также указывают на то, что ИИ не может мыслить так же, как человек, а только имитирует процесс мышления. Это создает необходимость критического подхода к применению ИИ в различных сферах, где требуется высокое качество строгого мышления и универсальной адаптации.
Таким образом, исследования показывают, что хотя генеративный ИИ способен производить впечатляющие результаты, его ограничения должны быть хорошо поняты и учтены при использовании в реальных задачах и принятии решений.
Добавить комментарий