Вебинары Разобраться в IT Реферальная программа Тесты
Программирование Аналитика Дизайн Маркетинг Управление проектами
10 Янв 2025
2 мин
32

Инженер разработал боевого робота с интеграцией ChatGPT

Инженер STS 3D разработал робота с возможностью стрельбы, используя ChatGPT, вызвав опасения по поводу ИИ в оружии.

Главное:

  • Инженер STS 3D разработал боевого робота, использующего ChatGPT для автоматизированной стрельбы.
  • OpenAI обозначила использование своего API для создания оружия как серьезное нарушение, требуя прекращения проекта.
  • Робот способен реагировать на голосовые команды, что поднимает вопросы о потенциальных угрозах ИИ в военных приложениях.

Создание боевого робота с использованием искусственного интеллекта

Недавняя разработка инженера, известного в сети под псевдонимом STS 3D, привлекла внимание общественности и экспертов своим инновационным подходом к использованию технологий искусственного интеллекта в военной сфере. Робот, разработанный с интеграцией ChatGPT, способен целиться и стрелять из винтовки, получая команды через голосовые команды. В демонстративном видео инженер показывает, как устройство реагирует на команды, такие как «ChatGPT, нас атакуют спереди слева и спереди справа».

Этот экспериментальный проект не только показывает, как быстро технологии ИИ могут быть адаптированы, но и поднимает важные вопросы о безопасности и этике. Разработка такого рода могла бы потенциально изменить правила игры в области вооружения, предлагая высокую степень автоматизации и управления.

Ответ OpenAI и последствия

Компания OpenAI немедленно отреагировала на использование своего API в проекте, заявив, что подобные разработки противоречат их политике. Они подчеркивают, что их технологии не предназначены для автоматизации процессов, связанных с личной безопасностью, и строго запрещают создание оружия с использованием своих услуг. Важно отметить, что OpenAI уже в прошлом году обновила свои условия, запретив использование своей платформы в военных целях.

Данный инцидент ставит под сомнение использование технологий ИИ не только индивидуальными разработчиками, но и крупными военными подрядчиками. В то время как OpenAI стремится остановить подобные инициативы, многие компании продолжают работать над разработкой автоматизированных боевых систем.

Потенциальные угрозы и общественная реакция

Несмотря на то, что разработка STS 3D носила, вероятно, экспериментальный характер, она отражает растущую доступность технологий ИИ для создания опасных систем даже для отдельных инженеров. Мы видим, как эти технологии могут быть использованы вне границ крупных оборонных компаний, что вызывает слишком много беспокойства.

Эксперты указывают, что такой подход может не только усилить риски на поле боя, но и сделать доступными автоматизированные системы для недобросовестных игроков. Это поднимает вопрос о том, как правительство и регулирующие органы могут контролировать использование технологий ИИ в военных целях и предотвращать возможные злоупотребления.

В заключение, инцидент показывает, насколько тщательно необходимо следить за развитием технологий искусственного интеллекта, и важно установить четкие границы для их применения, чтобы они не угрожали безопасности общества в целом.

Добавить комментарий