Вебинары Разобраться в IT Реферальная программа
Программирование Аналитика Дизайн Маркетинг Управление проектами
29 Дек 2024
2 мин
5

«Крестный отец AI» оценил риск исчезновения человечества из-за технологий в течение следующих 30 лет.

Известный учёный в области компьютерных наук выразил опасения, что искусственный интеллект может угрожать человечеству в ближайшие 30 лет.

Главное:

  • Джеффри Хинтон, известный ученый в области искусственного интеллекта, увеличил вероятность уничтожения человечества от AI до 20% за 30 лет.
  • Он призывает к государственному регулированию технологий из-за стремительного развития AI.
  • Хотя его коллега Янн Лекун считает угрозу от AI завышенной, Хинтон отмечает, что человечество никогда не сталкивалось с таким уровнем интеллекта.

Прогноз Хинтона и его значение

Джеффри Хинтон, который был удостоен Нобелевской премии по физике, поднимает тревогу о потенциальных последствиях искусственного интеллекта для человечества. В интервью программе «Today» на BBC Radio 4 он отметил, что вероятность вымирания человечества из-за AI составляет от 10% до 20% в течение следующих тридцати лет, что серьезно больше, чем его предыдущие оценки. Это вызывает широкий резонанс как среди исследователей, так и среди широкой общественности. Комплексное понимание этих рисков важно, так как технологии продолжают развиваться с неимоверной скоростью.

Согласно исследованиям, за последние два десятилетия технологии искусственного интеллекта достигли значительных успехов, что делает их даже частью повседневной жизни. По данным отчета McKinsey, около 70% компаний в разных отраслях используют хотя бы одну форму AI. Эти факторы подчеркивают необходимость серьезных обсуждений и мер по обеспечению безопасности в техническом прогрессе.

Консультации по регулированию AI

Хинтон акцентирует внимание на том, что сама «невидимая рука рынка» может не гарантировать безопасность использования AI. Он подчеркивает: «Стремление к прибыли крупных компаний недостаточно для безопасной разработки». В этом контексте государственное регулирование становится необходимым инструментом для предотвращения возможных катастроф. Однако необходимо будет найти баланс между инновациями и безопасностью, чтобы не угнетать развитие технологий.

Ранее аналогичную позицию выражал и другой известный исследователь AI, Илон Маск, который также обращал внимание на необходимость регулирования и четких рамок для безопасного использования технологий. Такие мнения все чаще становятся основой для открытых дискуссий на уровнях правительств и международных организаций.

Сравнение взглядов на угрозы AI

У Хинтона есть коллега — Янн Лекун, который, в отличие от него, преуменьшает ожидания от угроз, исходящих от AI, утверждая, что эти технологии могут даже спасти человечество от вымирания. Такие расхождения во мнениях среди исследователей поднимают важные вопросы о перспективах и рисках искусственного интеллекта. Являются ли их прогнозы противоположными, или эти мнения просто отражают разные подходы к трактовке данных исследований и существующих угроз?

К примеру, текущие данные о влиянии AI на решение сложных задач, таких как климатические изменения и управление ресурсами, заставляют задуматься о двойственности этого инструмента. Важно, чтобы научное сообщество продолжало вести диалог по данному вопросу и стремилось к более глубокому пониманию рисков и возможностей, которые мы имеем перед собой.

Добавить комментарий