Нейросети: за пределом человеческих знаний
https://www.it-world.ru/tech/hoa9o6lm0lc0c888kogog0wkggo4cc8.html

Машины выучили всё, чему мы могли их научить. Они поглотили тексты философов, переписку программистов, книги, инструкции и код — всё, что человечество создало за последние несколько тысяч лет. Сегодня нейросети подходят к естественному пределу: объёмы человеческих знаний, на которых они росли, уже не могут поддерживать прежние темпы развития. Чтобы сделать следующий шаг, им приходится впервые выйти за пределы накопленного опыта — учиться жить, ошибаться и открывать новое самостоятельно.
IT-World разбирается, как потоковые ИИ меняют экономику, рынок труда и правила игры в научных исследованиях — и почему цена их ошибок может быть выше, чем все прежние достижения человечества вместе взятые.
Конец эпохи данных
Когда-то всё было просто: больше данных — умнее модель. Этот принцип лежал в основе всей революции машинного обучения. Но как бы парадоксально это ни звучало, постоянное увеличение объёмов информации привело нас к тупику.
Исследователи Дэвид Сильвер и Ричард Саттон:
«Ценные новые идеи, такие как новые теоремы, технологии или научные прорывы, лежат за пределами человеческих знаний.»
По данным Google DeepMind storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf, качественных человеческих данных, которые способны учить ИИ, почти не осталось.
Другими словами, машины уже освоили всё, чему могли научиться у нас. Дальнейший рост невозможен без выхода за пределы чужого опыта — без самостоятельного освоения реальности.
Их альтернатива — агенты, которые не просто отвечают на запросы, а живут, действуют, ошибаются и учатся через собственный опыт. Именно так появился проект AlphaProof.
Как машины научились жить
AlphaProof стал одним из первых агентов, кто получил шанс не просто анализировать, а создавать новое знание. Изначально система изучила сто тысяч человеческих доказательств. Но затем её оставили наедине с задачами: искать решения самостоятельно, действовать без инструкций.
AlphaProof увеличил объём обучающих данных в 1000 раз — со 100 тысяч до 100 миллионов всего за несколько недель.
Результаты превзошли ожидания. За короткий срок AlphaProof создал сто миллионов новых доказательств и завоевал серебряную медаль Международной математической олимпиады — достижение, которое ранее казалось недостижимым для машин.
Параллельно развивался Agent S — агент, обучающийся действовать в реальных цифровых средах через пользовательские интерфейсы. Его эффективность на бенчмарке OSWorld выросла на 83,6 % — показатель, недостижимый для моделей, работавших по старым правилам.
Появление таких агентов доказало: машины способны строить своё собственное понимание мира, а не просто повторять за человеком.
Эпоха потоков: что такое Streams
Рождение агентов опыта связано с принципиально новой концепцией — Streams. Вместо коротких сессий "вопрос-ответ", потоковые ИИ живут в непрерывном потоке опыта, взаимодействуют с миром через разные интерфейсы, получают обратную связь, развивают собственные модели мира и стремятся не только к мгновенным успехам, но и к достижению долгосрочных целей.
Иными словами, ИИ перестаёт быть просто машиной предсказания. Он становится системой, строящей и уточняющей собственное понимание окружающего мира.
DeepMind предлагает вернуть в центр внимания обучение с подкреплением (RL – Reinforcement Learning) — но уже в его самой глубокой и реальной форме, через постоянное взаимодействие с живой средой, а не симулированными данными.

Источник
Автор: Олег Марсавин
Несовершенство, ускоряющееся каждый месяц
Несмотря на впечатляющие эксперименты, потоковые агенты пока ещё далеки от совершенства. По данным тестов GAIA, люди решают задачи с точностью 92 %, а GPT-4 с доступом к плагинам — всего 15 %. На задачах, требующих сложных многошаговых действий, ИИ пока полностью бессилен.
На бенчмарке SWE-bench, предназначенном для тестирования навыков исправления багов, агенты успешно решают только 20,8 % задач, если работа требует до тридцати минут, и всего 4,8 %, если задача сложнее.
На первый взгляд это внушает скепсис. Однако важнее не абсолютные показатели, а темпы изменений.
По данным METR, длина задач, которые ИИ способен успешно решать, удваивается каждые семь месяцев.
Агенты сегодня могут справляться с тем, что вчера было им недоступно, а завтра возьмут высоты, которые сегодня кажутся неприступными. Уже сейчас модели нового поколения, такие как OpenAI o3 с технологией «test-time compute», показали значительный прирост точности: на SWE-bench результат вырос с 48,9 % до 71,7 %.
Если эта динамика сохранится, то в ближайшие два-три года потоковые агенты научатся уверенно выполнять большую часть задач, которые сегодня воспринимаются как прерогатива высококвалифицированного специалиста.
Экономика опыта: когда стоимость важнее совершенства
Бизнес-практика всегда опережает научные дискуссии, особенно когда дело касается эффективности. В то время как эксперты спорят о границах возможностей ИИ, компании уже меняют свои процессы. Финтех-гигант Klarna заменил около 700 операторов поддержки ИИ-ботами без ухудшения качества обслуживания.
Финансовые расчёты не менее красноречивы. По данным METR, час работы агента обходится в тридцать раз дешевле, чем труд выпускника бакалавриата в США. В пересчёте на стандартный рабочий день это $1850 для человека против всего $123 для агента. При этом в ряде задач уровень выполнения уже сопоставим.
8 часов работы: человек — $1850, ИИ-агент — $123
Согласно данным METR, средняя стоимость часа работы ИИ составляет лишь 1/30 от стоимости выпускника университета в США. Именно поэтому экономический сдвиг будет происходить независимо от того, как быстро ИИ станет идеальным работником. Даже на среднем уровне агенты уже становятся экономически более выгодными, чем люди. И в ближайшее время это начнёт менять структуру рынков, занятости и требований к новым компетенциям.
Бизнесу не придётся долго выбирать. Когда агенты стабильно начнут справляться с задачами средней сложности, разворачивание их в реальной экономике будет не просто массовым, а стремительным.
Новые угрозы – где тонко, там и рвётся
Но вместе с новыми возможностями ИИ несёт новые угрозы. Доклад AI Agent Governance предупреждает: мир агентов — это не только рост продуктивности, но и масштабируемое зло.
- Автоматизация преступлений. Доступный потоковый агент легко масштабирует фишинг, взломы, разработку биотехнологий двойного назначения.
- Потеря контроля. Один неверный приоритет — и агентская сеть начинает скупать пустующие склады, взвинчивая рынки недвижимости, как в худших антиутопиях.
- Хрупкость цифровой инфраструктуры. Глубокая интеграция агентов в бизнес-процессы делает их новым слабым звеном безопасности.
- Социальная поляризация. У кого есть мощность и модели — у того прибыль; у остальных — стагнация и рост недовольства.
Одна ошибка агента может запустить каскад сбоев в логистике, финансах или инфраструктуре.
Ответ? Пока что — теоретический. Исследователи предлагают пятиуровневую систему защиты: от выравнивания целей агентов до их прозрачности, ограничения полномочий и разработки новых юридических механизмов ответственности. Пока предложенные меры — такие как обязательное логирование действий агентов, встроенные идентификаторы и ограничение полномочий — остаются на стадии разработки. Агенты учатся быстрее, чем человечество успевает выработать правила их поведения.
Изменения скоро могут стать необратимыми
Процесс уже запущен. Если ориентироваться на текущую динамику развития:
- К 2026 году агенты смогут стабильно решать 90 % задач SWE-bench и CyBench. На рынке появятся компании без традиционных команд разработчиков — с одним оркестратором, управляющим агентами.
- К 2028 году в государственных закупках начнут требовать обязательный Agent-ID и полное журналирование действий всех агентов.
- К 2030 году появится первый международный запрет на владение компаниями через ИИ-агентов, однако к тому моменту влияние агентов на рынок будет уже необратимым.
Мы стремились создать искусственный интеллект, способный понять и повторить человека. Но реальность опередила ожидания: ИИ учится самостоятельно, выходя за пределы человеческого опыта. Он делает ошибки, пробует, ищет и открывает то, о чём мы ещё даже не подумали.
Переход от эпохи данных к эпохе опыта меняет само устройство экономики. На смену копирующим системы приходят агенты, которые учатся сами, ошибаются и открывают новое — не по нашим подсказкам, а по собственной инициативе. Это сулит стремительный рост научных открытий и производительности. Но это же создаёт риски масштабных сбоев и неконтролируемых последствий.
ИИ впервые в истории перестаёт копировать нас. Он начинает идти туда, где человеческая интуиция уже не помощник. И сегодня ключевой вопрос не в том, успеет ли искусственный интеллект стать сверхразумом. Куда важнее — успеем ли мы научиться с ним жить прежде, чем он научится жить без нас.
#Нейросети #Агенты #Исследования #AlphaProof #DeepMind
Обновлено: 2025.04.28 10:33:10
Ответы