GTC, флагманское мероприятие Nvidia, всегда является источником объявлений обо всем, что связано с искусственным интеллектом. Осенний выпуск 2021 года — не исключение. Хуан основной доклад подчеркивает то, что Nvidia называет Omniverse. Omniverse — это платформа Nvidia для моделирования виртуального мира и совместной работы для 3D-рабочих процессов, объединяющая свои технологии.
Основываясь на том, что мы видели, мы бы описали Omniverse как версию Metaverse от Nvidia. Вы сможете узнать больше об Omniverse в рассказах Стефани Кондон и Ларри Диньяна здесь, на ZDNet. Что мы можем сказать, так это то, что действительно для того, чтобы что-то подобное работало, необходимо сочетание технологий.
Итак, давайте рассмотрим некоторые обновления в стеке технологий Nvidia, сосредоточив внимание на таких компонентах, как большие языковые модели (LLM) и логический вывод.
NeMo Megatron, платформа большой языковой модели Nvidia с открытым исходным кодом
Nvidia представила то, что она называет Nvidia NeMo Megatron рамки для обучения языковых моделей. Кроме того, Nvidia делает доступным Megatron LLM, модель с 530 миллиардами, которую можно обучить новым доменам и языкам.
Брайан Катандзаро, вице-президент по прикладным исследованиям в области глубокого обучения в Nvidia, сказал, что «создание больших языковых моделей для новых языков и областей, вероятно, является крупнейшим суперкомпьютерным приложением на сегодняшний день, и теперь эти возможности доступны для мировых предприятий».
В то время как LLM, безусловно, набирают обороты и набирают все большее количество приложений, полезность этого конкретного предложения требует некоторого внимания. Во-первых, обучение LLM не для слабонервных и требует глубоких карманов. Было подсчитано, что обучение такой модели, как OpenAI GPT-3, стоит около 12 миллионов долларов.
OpenAI заключила партнерские отношения с Microsoft и сделала доступным API вокруг GPT-3, чтобы коммерциализировать его. И есть ряд вопросов, которые следует задать по поводу возможности обучения собственному LLM. Очевидный вопрос — можете ли вы себе это позволить, поэтому давайте просто скажем, что Megatron нацелен не на предприятие в целом, а на конкретную подгруппу предприятий на данный момент.
Второй вопрос — зачем? Вам действительно нужен собственный LLM? Катандзаро отмечает, что LLMS «оказалась гибкой и способной, способной отвечать на глубокие вопросы предметной области, переводить языки, понимать и резюмировать документы, писать истории и вычислять программы».
В основе впечатляющих достижений искусственного интеллекта лежит целый ряд достижений в области программного и аппаратного обеспечения, и Nvidia решает и то, и другое.
Nvidia
Мы не будем заходить так далеко, чтобы сказать, например, что LLM «понимают» документы, но давайте признаем, что LLM достаточно полезны и будут совершенствоваться. Хуанг заявил, что LLM «станут крупнейшим массовым приложением для высокопроизводительных вычислений».
Настоящий вопрос — зачем создавать собственный LLM? Почему бы, например, не использовать API GPT-3? Конкурентная дифференциация может быть законным ответом на этот вопрос. Функция стоимости для оценки может быть другой, в другом воплощении извечного вопроса «покупка против строительства».
Другими словами, если вы уверены, что вам нужен LLM для работы ваших приложений, и вы планируете использовать GPT-3 или любой другой LLM с аналогичными условиями использования, достаточно часто, может быть более экономично обучить самостоятельно. Nvidia упоминает такие варианты использования, как создание доменных чат-ботов, личных помощников и других приложений ИИ.
Для этого было бы разумнее начать с предварительно обученного LLM и адаптировать его к вашим потребностям с помощью трансферного обучения, а не обучать его с нуля. Nvidia отмечает, что NeMo Megatron основывается на достижениях Megatron, проекта с открытым исходным кодом, возглавляемого исследователями Nvidia, изучающими эффективное обучение больших языковых моделей-трансформеров в большом масштабе.
Компания добавляет, что структура NeMo Megatron позволяет предприятиям преодолевать проблемы обучения сложных моделей обработки естественного языка. Итак, ценностное предложение, похоже, таково: если вы решили инвестировать в LLM, почему бы не использовать Megatron? Хотя это звучит как разумное предложение, мы должны отметить, что Megatron — не единственная игра в городе.
Недавно EleutherAI, коллектив независимых исследователей искусственного интеллекта, предоставил открытый исходный код своей модели GPT-j с 6 миллиардами параметров. Кроме того, если вы интересуетесь языками помимо английского, теперь у нас есть большая европейская языковая модель, свободно говорящая на английском, немецком, французском, испанском и итальянском языках от Aleph Alpha. Wudao — это китайский LLM, который также является крупнейшим LLM с 1,75 триллионом параметров, а HyperCLOVA — корейским LLM с 204 миллиардами параметров. Кроме того, всегда есть другие, немного более старые / меньшие по размеру LLM с открытым исходным кодом, такие как GPT2 или BERT и многие его варианты.
Нацеленность на вывод модели ИИ учитывает общую стоимость владения и эксплуатации.
Одно предостережение в том, что когда дело доходит до LLM, больший размер (например, наличие большего количества параметров) не обязательно означает лучшее. Другой заключается в том, что даже с такой базой, как Мегатрон, LLM — дорогие звери в обучении и эксплуатации. Предложение Nvidia направлено на решение обоих этих аспектов, в том числе специально нацелившись на умозаключение.
Nvidia отмечает, что Megatron оптимизирован для масштабирования в масштабной инфраструктуре ускоренных вычислений Nvidia DGX SuperPOD ™. NeMo Megatron автоматизирует сложность обучения LLM с помощью библиотек обработки данных, которые собирают, обрабатывают, систематизируют и очищают данные. Используя передовые технологии для данных, тензорного и конвейерного распараллеливания, он позволяет эффективно распределять обучение больших языковых моделей между тысячами графических процессоров.
Но как насчет вывода? В конце концов, теоретически, по крайней мере, вы обучаете LLM только один раз, но модель используется много-много раз, чтобы делать выводы — давать результаты. Фаза вывода операции составляет около 90% от общих затрат энергии на работу моделей ИИ.. Таким образом, наличие быстрого и экономичного вывода имеет первостепенное значение, и это применимо не только к LLM.
Nvidia решает эту проблему, объявляя о крупных обновления своего сервера вывода Triton, поскольку более 25 000 компаний по всему миру используют логический вывод Nvidia AI. Обновления включают новые возможности программного обеспечения Nvidia Triton Inference Server ™ с открытым исходным кодом, которое обеспечивает кроссплатформенный вывод по всем моделям и фреймворкам ИИ, а также Nvidia TensorRT ™, который оптимизирует модели ИИ и предоставляет среду выполнения для высокопроизводительного вывода на графических процессорах Nvidia.
Nvidia представляет ряд улучшений для Сервер вывода Triton. Наиболее очевидная связь с LLM заключается в том, что Triton теперь имеет многоузловую функциональность с несколькими графическими процессорами. Это означает, что LLM на основе трансформатора, которые больше не подходят для одного графического процессора, могут быть выведены между несколькими графическими процессорами и серверными узлами, что, по словам Nvidia, обеспечивает производительность вывода в реальном времени.
90% всей энергии, необходимой для моделей искусственного интеллекта, приходится на умозаключения.
Triton Model Analyzer — это инструмент, который автоматизирует ключевую задачу оптимизации, помогая выбрать лучшие конфигурации для моделей ИИ из сотен возможных. Согласно Nvidia, он обеспечивает оптимальную производительность при обеспечении качества обслуживания, необходимого для приложений.
RAPIDS FIL — это новый бэкэнд для графического процессора или процессора моделей случайного леса и моделей деревьев решений с градиентным усилением, который предоставляет разработчикам унифицированный механизм развертывания как для глубокого обучения, так и для традиционного машинного обучения с Triton.
И последнее, но не менее важное: в области программного обеспечения Triton теперь поставляется с Amazon SageMaker Integration, что позволяет пользователям легко развертывать мультифреймворковые модели с помощью Triton в SageMaker, полностью управляемом сервисе искусственного интеллекта AWS.
Что касается аппаратного обеспечения, то Triton теперь также поддерживает процессоры Arm, графические процессоры Nvidia и процессоры x86. Компания также представила Графический процессор Nvidia A2 с тензорным ядром, маломощный и компактный ускоритель для вывода ИИ на периферии, который, по утверждению Nvidia, обеспечивает до 20 раз большую производительность вывода, чем процессоры.
Triton обеспечивает логический вывод ИИ для графических процессоров и процессоров в облаке, центре обработки данных, на периферии предприятия и встраиваемых системах, интегрирован в AWS, Google Cloud, Microsoft Azure и Alibaba Cloud и включен в Nvidia AI Enterprise. Чтобы помочь предоставить услуги, основанные на технологиях искусственного интеллекта Nvidia, на периферии, Хуанг анонсировал Nvidia Launchpad.
Nvidia активно продвигается, чтобы сохранить лидерство в своей аппаратной и программной экосистеме
И это далеко не все, что Nvidia представила сегодня. Nvidia Modulus создает и обучает модели машинного обучения на основе физики, которые могут изучать законы физики и подчиняться им. Графы — ключевая структура данных в современной науке о данных — теперь можно проецировать в структуры глубоких нейронных сетей с помощью Deep Graph Library или DGL, нового пакета Python.
Хуанг также представил три новые библиотеки: ReOpt для логистической отрасли с оборотом 10 триллионов долларов. cuQuantum, чтобы ускорить исследования в области квантовых вычислений. И cuNumeric, чтобы ускорить NumPy для ученых, специалистов по обработке данных, исследователей машинного обучения и искусственного интеллекта в сообществе Python. И Nvidia представляет 65 новых и обновленных SDK на GTC.
Итак, что со всем этим делать? Хотя мы тщательно отобрали, каждый из этих пунктов, вероятно, заслуживает отдельного анализа. Общая картина состоит в том, что Nvidia снова активно продвигается, чтобы сохранить лидерство в согласованных усилиях по привязке своего оборудования к своему программному обеспечению.
На данный момент LLM может показаться экзотикой для большинства организаций. Тем не менее, Nvidia делает ставку на то, что они увидят больше интереса и практических приложений, и позиционирует себя как платформу LLM для других. Хотя существуют альтернативы, курирование, поддержка и комплектация программной и аппаратной экосистемы и бренда Nvidia, вероятно, покажется привлекательным предложением для многих организаций.
То же самое и с акцентом на умозаключение. Перед лицом растущей конкуренции со стороны множество поставщиков оборудования, использующих архитектуры, разработанные специально для рабочих нагрузок ИИ, Nvidia удваивает вывод. Это часть работы модели ИИ, которая играет самую большую роль в общей стоимости владения и эксплуатации. И Nvidia, опять же, делает это в своем фирменном стиле, используя оборудование и программное обеспечение в экосистеме.