Главное:
- Джеффри Хинтон, известный ученый в области искусственного интеллекта, увеличил вероятность уничтожения человечества от AI до 20% за 30 лет.
- Он призывает к государственному регулированию технологий из-за стремительного развития AI.
- Хотя его коллега Янн Лекун считает угрозу от AI завышенной, Хинтон отмечает, что человечество никогда не сталкивалось с таким уровнем интеллекта.
Прогноз Хинтона и его значение
Джеффри Хинтон, который был удостоен Нобелевской премии по физике, поднимает тревогу о потенциальных последствиях искусственного интеллекта для человечества. В интервью программе «Today» на BBC Radio 4 он отметил, что вероятность вымирания человечества из-за AI составляет от 10% до 20% в течение следующих тридцати лет, что серьезно больше, чем его предыдущие оценки. Это вызывает широкий резонанс как среди исследователей, так и среди широкой общественности. Комплексное понимание этих рисков важно, так как технологии продолжают развиваться с неимоверной скоростью.
Согласно исследованиям, за последние два десятилетия технологии искусственного интеллекта достигли значительных успехов, что делает их даже частью повседневной жизни. По данным отчета McKinsey, около 70% компаний в разных отраслях используют хотя бы одну форму AI. Эти факторы подчеркивают необходимость серьезных обсуждений и мер по обеспечению безопасности в техническом прогрессе.
Консультации по регулированию AI
Хинтон акцентирует внимание на том, что сама «невидимая рука рынка» может не гарантировать безопасность использования AI. Он подчеркивает: «Стремление к прибыли крупных компаний недостаточно для безопасной разработки». В этом контексте государственное регулирование становится необходимым инструментом для предотвращения возможных катастроф. Однако необходимо будет найти баланс между инновациями и безопасностью, чтобы не угнетать развитие технологий.
Ранее аналогичную позицию выражал и другой известный исследователь AI, Илон Маск, который также обращал внимание на необходимость регулирования и четких рамок для безопасного использования технологий. Такие мнения все чаще становятся основой для открытых дискуссий на уровнях правительств и международных организаций.
Сравнение взглядов на угрозы AI
У Хинтона есть коллега — Янн Лекун, который, в отличие от него, преуменьшает ожидания от угроз, исходящих от AI, утверждая, что эти технологии могут даже спасти человечество от вымирания. Такие расхождения во мнениях среди исследователей поднимают важные вопросы о перспективах и рисках искусственного интеллекта. Являются ли их прогнозы противоположными, или эти мнения просто отражают разные подходы к трактовке данных исследований и существующих угроз?
К примеру, текущие данные о влиянии AI на решение сложных задач, таких как климатические изменения и управление ресурсами, заставляют задуматься о двойственности этого инструмента. Важно, чтобы научное сообщество продолжало вести диалог по данному вопросу и стремилось к более глубокому пониманию рисков и возможностей, которые мы имеем перед собой.
Добавить комментарий