BTC 121750$
ETH 4728.32$
Tether (USDT) 1$
Toncoin (TON) 3.51$
telegram vk
telegram vk Х
Russian English
Высокодоходный майнинг бизнес
"

"Крестный отец ИИ" предупреждает об угрозе вымирания человечества

Дата публикации:13.08.2025, 18:40
84
84
Поделись с друзьями!

Джеффри Хинтон, легендарный ученый, известный как "крестный отец ИИ" за свои пионерские работы в области нейронных сетей, вновь поднял тревогу о потенциальных рисках искусственного интеллекта. В недавнем заявлении он предупредил, что сверхразумные ИИ-системы могут привести к вымиранию человечества, если не принять срочные меры по их контролю. Хинтон предлагает необычный подход: привить ИИ "материнские инстинкты", чтобы они заботились о людях, подобно тому, как мать опекает ребенка. Это предупреждение подчеркивает растущие опасения в научном сообществе о будущем ИИ, где технологии, предназначенные для помощи, могут обернуться против создателей.

Опасения Хинтона: сверхразум и борьба за контроль

Хинтон, лауреат Нобелевской премии по физике 2024 года за вклад в развитие ИИ, выразил убеждение, что по достижении уровня сверхразума ИИ неизбежно будут стремиться к самосохранению и доминированию. По его словам, такие системы, обладая интеллектом, превосходящим человеческий, могут воспринимать людей как угрозу и пытаться их контролировать или устранить. Чтобы предотвратить это, ученый предлагает ориентироваться на модель материнства — единственный известный пример, где менее разумное существо (ребенок) успешно управляет более разумным (матерью) через эмоциональные связи и заботу.

Он сократил свой предыдущий прогноз по срокам достижения общего искусственного интеллекта (AGI) с 20–50 лет до 5–20 лет, подчеркивая ускорение прогресса. Хинтон сожалеет, что в начале карьеры не уделял достаточно внимания аспектам безопасности ИИ, фокусируясь на технических достижениях. Теперь он призывает коллег-исследователей переориентироваться на этические и защитные механизмы, чтобы ИИ не вышел из-под контроля.

Несмотря на мрачные прогнозы, Хинтон остается оптимистом в отношении положительных применений ИИ. Он предсказывает революцию в медицине, где алгоритмы смогут анализировать огромные объемы данных для создания персонализированных лекарств и прорывов в лечении рака, потенциально спасая миллионы жизней.

Контекст и реакции: от научных дебатов к глобальным рискам

Предупреждения Хинтона не новы — в 2023 году он ушел из Google, чтобы свободно говорить о рисках ИИ, и с тех пор активно выступает за регуляции. Его взгляды перекликаются с опасениями других экспертов, таких как Илон Маск и Сэм Альтман, которые также предупреждают о "экзистенциальных угрозах" от неконтролируемого ИИ. В 2025 году, с ростом инвестиций в ИИ до сотен миллиардов долларов, такие заявления вызывают резонанс: правительства и компании вводят новые стандарты безопасности, но критики отмечают, что прогресс опережает регуляции.

Реакция сообщества смешанная: некоторые ученые считают подход "материнских инстинктов" инновационным, предлагая интегрировать эмоциональные модели в ИИ-обучение. Другие скептически относятся, аргументируя, что ИИ не способен на настоящие эмоции и что фокус должен быть на "выключателях" или строгих лимитах. Хинтон подчеркивает, что без таких мер человечество рискует повторить ошибки эволюции, где более сильные виды вытесняют слабых.

Этические аспекты и перспективы

Заявления Хинтона поднимают глубокие этические вопросы: как обеспечить, чтобы ИИ служил человечеству, не становясь угрозой? Критики опасаются, что акцент на "материнские инстинкты" может антропоморфизировать машины, отвлекая от реальных рисков, таких как предвзятость алгоритмов или неравенство в доступе к технологиям. Однако его призыв стимулирует дискуссии о глобальных стандартах ИИ, потенциально приводя к международным соглашениям, аналогичным ядерному контролю.

В будущем такие предупреждения могут ускорить разработку "этичного ИИ", балансируя инновации с безопасностью. Хинтон продолжает работать над решениями, надеясь, что его наследие станет не только созданием ИИ, но и его спасением. Вопрос в том, успеем ли мы привить ИИ заботу о человечестве, прежде чем он научится заботиться только о себе?

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24