Google переводит машинное обучение аппаратного обеспечения в облако

Почти два года назад Google открыл информацию, что компания разработала собственную «полупроводниковую пластину», называемую тензорным процессором, чтобы улучшить считывание уличных знаков программным обеспечением StreetView, точность алгоритма поисковой машины и методы машинного обучения, которые он использует в десятках другие интернет-услуг.

Но компания никогда не планировала бесконечно поддерживать свой ускоритель только на бэкэнде. Цель всегда заключалась в том, чтобы передать ключи блока обработки тензоров,  часто называемые ТП (англ. TPU), разработчикам программного обеспечения через облако. Несколько недель назад Google наконец-то начал предлагать свои тензорные процессоры другим компаниям.

Из чего состоит тензорный процессор

Блок обработки тензоров оснащен четырьмя настраиваемыми микросхемами, соединенными вместе для обеспечения 180 трлн операций в секунду для рабочих нагрузок машинного обучения. По данным Google, разработчики программного обеспечения могут обучать нейронные сети, используемые для машинного обучения часами, а не днями, и без необходимости создания приватного вычислительного кластера.

«Традиционно для написания программ для пользовательских ASIC и суперкомпьютеров требуется глубокий специализированный опыт», — написал Джон Баррус, менеджер продукта Google Cloud для Cloud TPU, и Zak Stone, менеджер по продуктам Tensor Flow и Cloud TPU в команде Google Brain, в блоге.

Чтобы снизить планку программирования, Google предлагает набор программных инструментов, основанных на TensorFlow, программной платформе для машинного обучения, разработанной компанией Google. Компания заявила, что сделает доступными модели для обнаружения объектов, классификации изображений и языкового перевода в качестве ориентира для клиентов. Google сказал, что он будет взимать 6,50 долл. США за использования тензорных процессоров в час для тех, кто участвует в бета-тестировании.

Цель использования тензорных процессоров в вычислениях Google

Цель Google состоит в том, чтобы «приманить» инженеров-программистов к использованию облачной вычислительной платформы вместо облачных платформ Amazon и Microsoft. Но в этом процессе Google начинает конкурировать с другими поставщиками микросхем, особенно с Nvidia, которая тратит миллиарды долларов на разработку печатных плат, «украшенных» огромным объемом памяти и более быстрыми соединениями, чтобы удерживать лидерство на рынке машинного обучения.

Перемещение своих собственных микросхем в облако также толкает Google к конфликту с различными электронными стартапами, нацеленными на машинное обучение, в том числе Groq, основанным бывшими инженерами Google, которые работали с первым тензорным процессором (ТП). Другие компании, близкие к выпуску микросхем, такие как Graphcore и Wave Computing, могут пострадать от заявки Google на вертикальную интеграцию, особенно если другие гиганты интернета последуют за ее руководством.

Google сказал, что первые клиенты, использующие настраиваемое оборудование, включают Lyft, который работает на автономных транспортных средствах, которые могут быть развернуты в своей сети совместного использования поездок, и которые собрали 1 миллиард долларов в раунде финансирования в прошлом году под руководством родительского алфавита Google. Еще одним ранним пользователем является Two Sigma, фирма по управлению инвестициями, пишут Barrus и Stone в блоге.

Есть несколько вопросов, на которые у нас пока нет ответов. Неясно, сколько внутренних тренингов и алгоритм логического вывода Google работает на собственных микросхемах, которые с прошлого года поддерживают обе фазы машинного обучения. И Google по-прежнему сталкивается с вопросом, может ли он убедить облачных клиентов прекратить использование графических процессоров Nvidia для обучения и центральных процессоров Intel для алгоритма логического вывода.

Google позволяет использовать свои тензорные процессоры другим компаниям

В прошлом году Google открыл занавес над производительностью своего процессора первого поколения, который был оптимизирован только для этапа вывода аппаратного обучения. Он утверждал, что ускоритель работал в тринадцать раз быстрее, чем схемы, основанные на архитектуре Nvidia’s Kepler. Мы указываем на это, потому что Kepler теперь является двумя полными поколениями  архитектуры Volta от Nvidia, которая построена вокруг настраиваемых ядер, преуспевающих в переработке больших объемов данных, участвующих в машинах.

Конкуренция Google и Nvidia

По оценкам Nvidia, они потратили 3 миллиарда долларов на создание Volta. Его последняя линейка микросхем, основанная на этой архитектуре, может выполнять 125 трлн операций с плавающей запятой в секунду для обучения и работы нейронных сетей. Микросхемы могут быть заключены в миниатюрные суперкомпьютеры, которые могут быть переведены на стандартный сервер или отправлены на нефтяные вышки или на строительные площадки для обучения алгоритмов локально, а не в общедоступном облаке.

Google не собирается прекращать покупать последние модели микросхемы для своего облака. Компания заявила, что укрепит свое облако с помощью Tesla V100 от Nvidia, которые на самом деле более гибкие, чем платы Google, потому что они поддерживают более широкий спектр программных библиотек, включая TensorFlow. Он также будет предлагать чипы клиентов на основе архитектуры Skylake от Intel, которая была усилена специально для машинного обучения.

Позже в этом году Google планирует передать клиентам ключи к суперкомпьютерам под названием TPU pods, которые связывают 64 пользовательские микросхемы, чтобы обеспечить до 11,5 петафлопс производительности. В декабре Google заявил, что один модуль может тренировать ResNet-50, программу классификации изображений, используемую в качестве эталона для плат машинного обучения, менее чем за полчаса, что намного быстрее, чем предыдущие методы.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *