BTC 107797$
ETH 2543.42$
Tether (USDT) 1$
Toncoin (TON) 3.22$
telegram vk
telegram vk Х
Russian English
"

Эпоха масштабирования GPT-моделей подходит к концу - OpenAI

Дата публикации:09.06.2025, 09:58
130
130
Поделись с друзьями!

На мероприятии для инженеров в сфере ИИ, Грег Брокман, президент OpenAI согласился с позицией Яна Лекуна и Google, заявив, что для следующих моделей GPT нужны фундаментальные исследования в ИИ.

Напомним, что еще в декабре 2024 Илья Суцкевер публично сказал, что настал конец эпохи предобучения.

Когда Грега спросили о проблемах масштабирования следующих GPT-моделей, он ответил: "Фундаментальные исследования возвращаются" - намекая на то, что простое увеличение размера моделей достигло своих пределов и нужны новые научные прорывы.

То есть для создания более мощных и эффективных моделей следующего поколения нужно углубляться в теоретические основы ИИ, искать новые идеи и решения, а не полагаться только на масштабирование текущих методов.

Это согласуется с тем, что говорят Лекун и Google: для достижения AGI или создания более способных ИИ-агентов нужны новые архитектуры и подходы, которые позволят ИИ глубже понимать реальность, а не только обрабатывать данные. 

О будущем инфраструктуры. На вопрос о необходимой инфраструктуре для долгосрочных вычислений и масштабирования ИИ, Грег говорил о переходе к «зоопарку различных моделей, где модели вызывают другие модели».

Что будет дальше?
1. Специализированные модели для разных задач
2. «Зоопарк моделей» - системы из множества взаимодействующих ИИ
3. Новые способы обучения и архитектуры.
4. Упор на практическое применение, а не размер.

GPT не исчезнут, но:
- GPT-5, 6, 7... могут не дать такого же скачка как GPT-3→GPT-4
- Прорывы будут в других направлениях (мультимодальность, рассуждения, агенты)
- Отрасль переходит от "гонки параметров" к "гонке идей".

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24