«Технологии машинного обучения 2018»: Платформы

Тимур Палташев: «В области машинного обучения AMD активно работает и на уровне 'железа', и на уровне библиотек»


14:04 18.12.2018  (обновлено: 09:51 19.12.2018)   |   5980 |  Алексей Чернобровцев |  Computerworld Россия

Рубрика Технологии



В конце сентября состоялась практическая конференция, организованная издательством «Открытые системы», в которой приняли участие 250 представителей организаций из различных отраслей.

Основной темой одной из сессий конференции стали платформы, поддерживающие приложения машинного обучения и искусственного интеллекта. Модератор сессии, Евгений Соломатин, руководитель программы «МВА Телеком» бизнес-школы МИРБИС, отметил несомненный интерес к выступлениям, дискуссиям и обсуждениям конференции, «поскольку здесь пересекаются интересы и людей из бизнеса, и теоретиков, которых свели вместе ее организаторы».

Машинное обучение — одно из направлений искусственного интеллекта, для достижения конечной цели в котором применяется «обучение» компьютерных систем на основе решения множества сходных задач. Алгоритмы машинного обучения основаны на средствах математической статистики, теории вероятностей, теории графов, численных методах. Их производительность повышается по мере обработки нарастающих объемов данных.

Для сложных задач, требующих аналитических вычислений, которые основываются на современных представлениях о возможностях мозга человека, используются нейронные сети, предоставляющие, в том числе, возможность решения в ИТ-системах проблемы эффективного параллелизма.

Современные приложения машинного обучения требуют значительных вычислительных ресурсов, которыми располагают сегодня крупные центры обработки данных, а также исполняются с применением графических процессоров.

Каждый вендор, отмечают эксперты, пытается доказать преимущества предложенной архитектуры, которая для решения задач искусственного интеллекта и машинного обучения реализуется в центральных и графических процессорах, интегральных схемах специального назначения и программируемых логических матрицах.

Nvidia

Лидирующим игроком, продукты которого наиболее популярны для решения задач машинного обучения, является сегодня, по большинству оценок, компания Nvidia.

Дмитрий Коробченко, инженер по глубинному обучению компании Nvidia и популяризатор нейронных сетей, представил стек технологий компании, ускоряющий процессы разработки архитектур и процессов машинного обучения.

«Важнейшие компоненты нейронных сетей — графические процессоры, обеспечивающие высокую производительность при выполнении таких операций, как умножение больших матриц, свертка функций и ряд других, где очень важен массовый параллелизм», — подчеркнул он.

Компания недавно выпустила графические карты Nvidia Tesla T4, разработанные для приложений искусственного интеллекта, которые предназначены для установки в вычислительных системах центров обработки данных.

Дмитрий Коробченко

Дмитрий Коробченко: «Важнейшие компоненты нейронных сетей — графические процессоры»

Их графические процессоры содержат новые тензорные ядра на основе микроархитектуры Turing (о чем свидетельствует буква T в названии карт), обеспечивающие, в том числе, очень высокую производительность при перемножении матриц с пониженной точностью.

Наряду с этим, Tesla T4 отличаются низким энергопотреблением, позволяющим устанавливать их без дополнительных источников питания в разъемы PCI Express серверов.

Для оптимизации моделей глубинного обучения в Nvidia выпустили обновление TensorRT. Теперь эта платформа глубинного обучения содержит сервер принятия решений, а также контейнеризированный микросервис поддержки процессов логических умозаключений (inference), который, как утверждают разработчики, легко интегрируется с инфраструктурой Kubernetes, автоматизирующей развертывание и масштабирование контейнеризированных приложений, а также управление ими.

AMD

В сегменте дискретных графических процессоров единственным крупным конкурентом Nvidia остается компания AMD (см. «AMD намерена стать гигантом машинного обучения», Computerworld Россия, 19 июня 2017).

Аналитики компании Jon Peddie Research, специализирующейся на консалтинге и исследованиях в области графики и мультимедиа, утверждают, что во втором квартале 2018 года доля AMD на рынке дискретных графических процессоров для ПК, серверов, майнинговых ферм, систем для научных исследований составила 36,1%, а Nvidia — 63,9% (соответствующие результаты второго квартала 2017-го — 30,3% и 69,7%).

По словам Тимура Палташева, доктора технических наук и старшего менеджера AMD Radeon Technlogies Group, компания возвращается в дата-центры с семейством серверных чипов EPYC, в состав которого входят 12-нанометровые модели EPYC+ и 64-ядерные EPYC Rome с нормой проектирования 7 нм.

В конце 2017 года компания AMD представила ускорители Radeon Instinct, созданные на основе платформы EPYC, в том числе, модель с графическим процессором Vega. Все они рассчитаны на задачи машинного обучения.

Эксперты считают, что AMD занимает особое положение на рынке, так как выпускает и процессоры на базе на базе архитектуры x86, и собственные графические процессоры. Компания продвигает концепцию гетерогенной системной архитектуры (Heterogeneous System Architecture, HSA), спецификации которой позволяют организовать взаимодействие центральных и графических процессоров, работающих на одной шине с разделяемой памятью и с общими задачами.

«В области машинного обучения мы активно работаем и на уровне 'железа', и на уровне библиотек, хотя еще два года назад в компании не было софтверной команды», — пояснил Палташев.

Ранее AMD вышла с инициативой ROCm (Radeon Open Compute), призванной обеспечить поддержку высокопроизводительных вычислений, которая является альтернативой платформе Nvidia CUDA.

Благодаря программному обеспечению ROCm достигается рост производительности при решении вычислительных задач в операционных средах Linux за счет применения графических процессоров AMD. Это собственная реализация фреймоворка OpenCL для разработки ПО с поддержкой параллельных вычислений на графических и центральных процессорах, которую компания выпустила под публичной лицензией.

Intel

Intel располагает сегодня обширным портфелем технологий искусственного интеллекта, поддерживающим предложение комплексных решений — от центров обработки данных до граничных систем и периферийных устройств.

Этому во многом способствует активное приобретение компаний, их технологий и разработок. Покупка Altera, к примеру, вывела Intel на лидирующие позиции в области применения FPGA для задач, связанных с логическими умозаключениями, а доступ к технологиям компании Nervana обеспечил высокопроизводительное обучение нейронных сетей, для которого в настоящее время используются главным образом технологии Nvidia.

«Корпорация предлагает аппаратные и программные продукты для всех областей искусственного интеллекта, включая машинное и глубинное обучение», — подчеркнул Дмитрий Сивков, ведущий технический инженер-консультант Intel.

Дмитрий Сивков

Дмитрий Сивков: «Intel предлагает аппаратные и программные продукты для всех областей искусственного интеллекта»

Так, для задач общего характера и машинного обучения, не связанного с глубокими нейронными сетями, вполне подходят процессоры серии Intel Xeon Processor Scalable, пояснил он. Поддержку же интенсивных вычислений обеспечат готовящиеся к коммерческому анонсу чипы первого поколения Intel Nervana Neural Network Processor (NNP).

В портфель продуктов Intel Nervana, предназначенных для решений искусственного интеллекта, входят такие библиотеки, как Intel Python Distribution, Intel Data Analytics Acceleration Library, BigDL, а также платформы Intel Nervana Cloud & Appliance, Nervana DL Studio, Computer Vision SDK и ряд других.

Год назад в Intel объявили о создании чипа Loihi, предназначенного для вероятностных вычислений, который имитирует работу мозга. В планах на 2019 год — создание системы из множества чипов, содержащую 100 млрд синапсов (см. «К 2019 году чипы Intel сравняются по интеллекту с мышами», Computerworld Россия, 18 мая 2018).

Российские разработки

«Около полусотни компаний создают нейрочипы, в основном, — в США и Китае, впрочем, пара таких разработчиков есть и в нашей стране. Самый известный на рынке чип — Google TPU, но его не продают и не намерены этого делать в будущем», — сообщил Станислав Ашманов, генеральный директор и основатель «Нейросетей Ашманова».

Чтобы построить и обучить нейронную сеть для конкретной задачи, нужен конструктор/компилятор нейронных сетей, то есть нейробиблиотека или нейронный, фреймворк, пояснил он, отметив, что в настоящее время в отрасли есть 9 таких библиотек. Все они ориентированы на решения Nvidia.

В «Нейросетях Ашманова» разработана собственная отечественная библиотека Puzzle.Lib, которая, по данным компании, уже используется в коммерческих проектах. Она обеспечивает поддержку графических процессоров AMD, «которые не уступают по производительности Nvidia, но гораздо дешевле», мобильных графических карт Apple и Android, а также продуктов Nvidia, «но без зависимости от лицензий этой компании, так как уже создан свой ассемблер для процессоров Nvidia и разрабатывается аналог cuDNN».

«Мы поддерживаем также отечественные процессоры 'Байкал' и 'Эльбрус'», — заявил Ашманов.

В целом рынок оборудования машинного обучения активно развивается. По оценкам экспертов инвестиционной компании Needham & Company, в ближайшие пять лет суммарный объем мирового рынка поддержки задач логических умозаключений способен достичь 20 млрд долл., 5 млрд из которых, как ожидают сегодня, придется на долю Nvidia.


Теги: Intel Процессоры Nvidia Нейронные сети AMD Искусственный интеллект Графические процессоры Машинное обучение
На ту же тему: