Трое блестящих собеседников: физик Алексей Семихатов, астроном Владимир Сурдин и директор по развитию технологий ИИ в Сбере Сергей Марков ведут живую дискуссию о природе искусственного интеллекта, нейронных сетях, вычислительных системах и границах возможного в современной науке.
Основной фокус беседы сосредоточен на том, как работает машинное обучение, чем оно отличается от традиционного программирования, и какие вызовы стоят перед технологиями будущего.
Сергей Марков объясняет, что искусственный интеллект (ИИ) — это не просто программа, написанная под конкретную задачу, а самообучающаяся система, которая настраивает свои внутренние параметры на основе данных. В отличие от классического программирования, где человек задает четкие правила, в ИИ система сама «выучивает» эти правила, минимизируя ошибки. Например, нейросеть для распознавания котиков на фото не получает инструкций вроде «ищи уши и хвост», а анализирует миллионы изображений, корректируя свои параметры, пока не научится отличать фото с котом от фото без него.
Для пояснения приводится ключевая метафора: если котик есть — загорается лампочка, если нет — не загорается. Ошибка (например, лампочка загорелась, а кота нет) используется как обратная связь для корректировки системы. Это и есть обучение.
«Нейронная сеть — это такая большая многоэтажная формула… которая является суперпозицией более простых функций», — говорит Марков.
По его словам, каждый искусственный нейрон — это маленький вычислитель, который принимает входные сигналы (пиксели изображения), умножает их на веса, суммирует и применяет пороговую функцию. Задача обучения — подобрать такие веса, чтобы ошибка была минимальной. Для этого используется метод обратного распространения ошибки и градиентный спуск.
Процесс обучения дискутирующие определяют как задачу оптимизации. Важно, чтобы поверхность целевой функции была гладкой, чтобы градиентные методы могли найти глобальный минимум. Если поверхность слишком шероховата или имеет разрывы, обучение затруднено.
От нейросетей к сознанию
Сравнивая мозг и компьютер, собеседники отмечают: человеческий мозг содержит около 86 млрд нейронов и до квадриллиона синапсов. Для моделирования одного синапса требуется тысячи бинарных элементов — значит, вычислительная сложность мозга пока недоступна современным машинам. При этом мозг работает медленнее (сигналы передаются со скоростью ~120 м/с), но параллельно и эффективно:
«Грубая сила на стороне мозга, а не на стороне компьютера».
В отличие от классических компьютеров, где память и процессор разделены, в мозге нейрон одновременно хранит и обрабатывает информацию. Это устраняет «узкое горлышко» в виде шины данных, объясняет Марков.
Квантовые и биологические вычисления
Собеседники признают, что развитие техники сталкивается с физическими барьерами: теплоотвод, размеры транзисторов, энергопотребление. Суперкомпьютеры выделяют столько тепла, что требуют мощного охлаждения. Это указывает на необходимость поиска новых физических субстратов — возможно, квантовых или биологических.
Квантовые компьютеры пока находятся на начальной стадии, но могут решать задачи, недоступные классическим машинам. Однако и они не являются «волшебной палочкой» — их эффективность зависит от алгоритмов и задач.
ИИ и творчество
Может ли ИИ творить? Обсуждая эту тему, авторы видео подчеркивают: если обучить модель предсказывать следующее слово в тексте на огромной базе данных, она начнет «говорить» осмысленно, шутить, писать стихи. Но это не творчество в человеческом понимании, а статистическая экстраполяция:
«Если вы на огромном корпусе текстов научите программу находить следующее слово, то она может сказать: "А вы нотюрн сыграть смогли бы на флейте?" — и это будет звучать как Маяковский».
Такие модели не понимают смысла, но улавливают статистические закономерности языка.
Этические и социальные вызовы
Собеседники сходятся на том, что автоматизация несет риски. Алгоритмы, принимающие решения в медицине, финансах или управлении транспортом, могут ошибаться. Проблема в непрозрачности этих систем: коммерческие алгоритмы — проприетарная тайна, и пользователь не может проверить, почему ему отказали в кредите:
«Вот модель решила, что я долго не проживу… и кредит мне давать не нужно. Но как я могу проверить это? Нет механизма защиты».
В качестве примера упоминается история с британской почтовой службой, где дефектный алгоритм привел к ложным обвинениям и разрушенным жизням, что показывает: без ответственности и прозрачности ИИ опасен.
Вывод
Увлекательная и остроумная беседа приводит к выводу, что ИИ — мощный инструмент, но он не мыслит и не чувствует. Он оптимизирует, предсказывает, имитирует. Его успех — результат больших данных, математики и вычислительной мощи. Будущее — за гибридными системами, где человек остается в цикле управления, а технологии служат во благо, а не во вред.