Вебинары Разобраться в IT Реферальная программа
Программирование Аналитика Дизайн Маркетинг Управление проектами
7 профессий по цене одной
07:05:47:06
дн. ч. мин. сек.
24 Ноя 2024
2 мин
1

OpenAI поддерживает исследование моральных аспектов в ИИ-системах

OpenAI предоставила грант Дьюкскому университету на изучение морали в ИИ, вложив $1 млн в проект на три года.

Главное:

  • OpenAI выделила $1 миллион на исследование морали в системах искусственного интеллекта.
  • Проект возглавляют ученые из Дьюкского университета.
  • Цель — разработка ИИ, который сможет предсказывать моральные суждения людей в критически важных областях.
  • Грант будет действовать до 2025 года и является частью более крупной инициативы OpenAI.

Что подразумевается под моральным ИИ?

Исследование морали в контексте искусственного интеллекта — это относительно новая область, требующая глубокого понимания как этических принципов, так и технических возможностей ИИ. Это связано с нарастающими опасениями относительно того, как алгоритмы принимают решения, влияющие на людей. В частности, аналогия с медициной и юриспруденцией показывает, как важны моральные оценки в сложных ситуациях.

Ученые из Дьюкского университета ведут проект «Исследование нравственности ИИ» (Research AI Morality), ставящий своей целью создать алгоритмы, способные предсказывать моральные суждения в ситуациях, где решение может значительно повлиять на качество жизни и права человека.

Текущие достижения и недостатки технологий

Несмотря на успехи в разработке ИИ, нынешние решения зачастую далеки от идеала. Например, алгоритм Ask Delphi, созданный Институтом искусственного интеллекта Аллена, показал свои ограничения: хотя он мог хорошо отвечать на вопросы по этическим дилеммам, его суждения легко манипулировать с помощью перефразирования. Это свидетельствует о проблеме, что современные ИИ-системы действуют, полагаясь на уже имеющиеся примеры, в то время как морали сложно передать таким образом.

Согласно исследованиям, большинство моделей машинного обучения основываются на анализе несовершенных данных и часто просто копируют предвзятости, присущие этим данным. Это поднимает важный вопрос: как мы можем научить ИИ лучше понимать моральные концепции, если сами алгоритмы не имеют внутреннего понимания таких понятий?

Будущее и цели исследований

Грант от OpenAI не только финансово поддерживает новые исследования, но и создает основу для дальнейшей работы в этой области. Исследования, проводимые учеными, могут привести к значительным изменениям в том, как мы разрабатываем и внедряем системы ИИ в общество.

Использование ИИ для определения моральных решений — это масштабная задача, которая требует времени и комплексного подхода. Если мы сможем успешно интегрировать этические аспекты в разработку ИИ, это может значительно изменить картину технологического прогресса, сделав ИИ более «человечным» в его решениях. Это, в свою очередь, может помочь создать более справедливое общество, где технологии служат улучшению качества жизни, а не просто автоматизированной системой обработки данных.

Таким образом, исследование морали в ИИ открывает новые горизонты для науки, могла бы это стать знаком серьезного поворота в развитии технологий.

Добавить комментарий