Адаптация к эпохе рассуждений ИИ
Каждый, кто готовился к экзаменам в колледже, знает, что впечатляющая способность быстро воспроизводить информацию не является синонимом критического мышления.
Большие языковые модели (LLM), впервые публично представленные в 2022 году, были впечатляющими, но ограниченными — как талантливые студенты, которые преуспевают на экзаменах с множественным выбором, но спотыкаются, когда их просят защитить свою логику. Современные продвинутые модели рассуждений больше похожи на опытных аспирантов, которые могут ориентироваться в неоднозначности и возвращаться назад, когда это необходимо, тщательно прорабатывая проблемы с помощью методического подхода.

Революция рассуждений
«Модели рассуждений качественно отличаются от более ранних LLM», — говорит Прабхат Рам, партнер-архитектор AI/HPC в Microsoft, отмечая, что эти модели могут исследовать различные гипотезы, оценивать, являются ли ответы последовательно правильными, и соответствующим образом корректировать свой подход. «По сути, они создают внутреннее представление дерева решений на основе обучающих данных, которым они подвергались, и исследуют, какое решение может быть лучшим».
Этот адаптивный подход к решению проблем не обходится без компромиссов. Ранее LLM выдавали результаты за миллисекунды на основе статистического сопоставления шаблонов и вероятностного анализа. Это было — и остается — эффективным для многих приложений, но это не дает ИИ достаточно времени для тщательной оценки нескольких путей решения.
В новых моделях увеличенное время вычислений во время вывода — секунды, минуты или даже дольше — позволяет ИИ использовать более сложное внутреннее обучение с подкреплением. Это открывает двери для многоэтапного решения проблем и более тонкого принятия решений.
Чтобы проиллюстрировать будущие варианты использования ИИ, способного к рассуждениям, Рэм приводит пример марсохода NASA, отправленного для исследования поверхности Марса. «Необходимо принимать решения в каждый момент относительно того, какой путь выбрать, что исследовать, и должен быть компромисс между риском и вознаграждением. ИИ должен уметь оценивать: «Я собираюсь спрыгнуть со скалы? Или, если я изучаю этот камень, а у меня ограниченное количество времени и бюджета, действительно ли он более ценен с научной точки зрения?» Успешное проведение этих оценок может привести к новаторским научным открытиям с ранее немыслимой скоростью и масштабом.
Возможности рассуждения также являются важной вехой в распространении систем агентного ИИ: автономных приложений, которые выполняют задачи от имени пользователей, такие как планирование встреч или бронирование маршрутов путешествий. «Независимо от того, просите ли вы ИИ забронировать номер, предоставить краткий обзор литературы, сложить полотенце или поднять кусок камня, он должен сначала иметь возможность понимать окружающую среду — то, что мы называем восприятием — понимать инструкции, а затем переходить к фазе планирования и принятия решений», — объясняет Рам.
Корпоративные приложения систем искусственного интеллекта, способных к рассуждениям
Корпоративные приложения для ИИ с рассуждениями имеют далеко идущие перспективы. В здравоохранении системы рассуждений ИИ могут анализировать данные пациентов, медицинскую литературу и протоколы лечения для поддержки диагностических или лечебных решений. В научных исследованиях модели рассуждений могут формулировать гипотезы, разрабатывать экспериментальные протоколы и интерпретировать сложные результаты, что потенциально ускоряет открытия в различных областях от материаловедения до фармацевтики. В финансовом анализе рассуждения ИИ могут помочь оценить инвестиционные возможности или стратегии расширения рынка, а также разработать профили рисков или экономические прогнозы.
Вооруженные этими идеями, собственным опытом и эмоциональным интеллектом, врачи, исследователи и финансовые аналитики могли бы принимать более обоснованные решения быстрее. Но прежде чем выпускать эти системы на волю, необходимо будет обеспечить нерушимость гарантий и рамок управления, особенно в таких важных контекстах, как здравоохранение или автономные транспортные средства.
«Для беспилотного автомобиля существуют решения, которые необходимо принимать в режиме реального времени, независимо от того, поворачивает ли он руль влево или вправо, нажимает ли он на педаль газа или тормоза — вы же совершенно не хотите сбить пешехода или попасть в аварию», — говорит Рам. «Умение рассуждать о ситуациях и принимать «оптимальные» решения — это то, что модели рассуждений должны будут делать в будущем».
Инфраструктура, лежащая в основе рассуждений ИИ
Для оптимальной работы модели рассуждений требуют значительно больше вычислительных ресурсов для вывода. Это создает определенные проблемы масштабирования. В частности, поскольку длительность вывода моделей рассуждений может сильно различаться — от нескольких секунд до многих минут — балансировка нагрузки между этими разнообразными задачами может быть сложной.
Преодоление этих препятствий требует тесного сотрудничества между поставщиками инфраструктуры и производителями оборудования, говорит Рам, говоря о сотрудничестве Microsoft с NVIDIA, которая внедряет свою платформу ускоренных вычислений в продукты Microsoft, включая Azure AI.
«Когда мы думаем об Azure и когда мы думаем о развертывании систем для обучения и вывода ИИ, нам действительно нужно думать обо всей системе в целом», — объясняет Рам. «Что вы собираетесь делать по-другому в центре обработки данных? Что вы собираетесь делать с несколькими центрами обработки данных? Как вы собираетесь их соединить?» Эти соображения распространяются на проблемы надежности во всех масштабах: от ошибок памяти на уровне кремния до ошибок передачи внутри и между серверами, тепловых аномалий и даже проблем на уровне центра обработки данных, таких как колебания мощности, — все это требует сложных систем мониторинга и быстрого реагирования.
Создавая целостную архитектуру системы, предназначенную для обработки меняющихся требований ИИ, сотрудничество Microsoft и NVIDIA позволяет компаниям использовать мощь моделей рассуждений без необходимости управлять базовой сложностью. Помимо преимуществ производительности, такие типы сотрудничества позволяют компаниям идти в ногу с технологическим ландшафтом, развивающимся с головокружительной скоростью. «Скорость — уникальная задача в этой области», — говорит Рам. «Каждые три месяца появляется новая базовая модель. Аппаратное обеспечение также развивается очень быстро — за последние четыре года мы развернули каждое поколение графических процессоров NVIDIA, а теперь и NVIDIA GB200NVL72. Лидерство в этой области действительно требует очень тесного сотрудничества между Microsoft и NVIDIA для обмена дорожными картами, сроками и проектами в области аппаратного проектирования, квалификаций и наборов проверки, проблем, возникающих в производстве, и так далее».
Достижения в инфраструктуре ИИ, разработанные специально для рассуждений и агентных моделей, имеют решающее значение для внедрения ИИ с рассуждениями в более широкий круг организаций. Без надежной, доступной инфраструктуры преимущества моделей рассуждений останутся привилегией компаний с огромными вычислительными ресурсами.
Заглядывая вперед, можно сказать, что эволюция систем ИИ, способных к рассуждениям, и поддерживающей их инфраструктуры обещает еще большие выгоды. Для Рама фронтир простирается за пределы корпоративных приложений к научным открытиям и прорывам, которые продвигают человечество вперед: «День, когда эти агентные системы смогут подпитывать научные исследования и предлагать новые гипотезы, которые могут привести к Нобелевской премии, я думаю, это тот день, когда мы сможем сказать, что эта эволюция завершена».