Для многих людей, не связанных с точными науками, слова искусственный интеллект ассоциируются с чем-то ужасным и непонятным. Мы постараемся развеять наиболее популярные мифы об искусственном интеллекте (ИИ).
Искусственный интеллект это научная фантастика
Совершенно верно. Зарождение искусственного интеллекта начиналось как научная фантастика, популяризованная писателями-провидцами, но ИИ здесь и сейчас. Существует множество современных приложений, в зависимости от того, что вы вкладываете в понятие «искусственный интеллект». Хотя после решения сложной проблемы ИИ, она быстро кажется очевидной и, следовательно, менее «разумной». В США один из первых примеров использования искусственного интеллекта на периферии касался распознавания чеков по почерку.
Искусственный интеллект должен быть управляем периферийным или облачным устройством
Не так быстро. Оказывается, есть много классных гибридных реализаций, которые объединяют эти два подхода. Часто, независимо от того, находится ли реализация ИИ в конечном узле или в облаке, она определяется соображениями, касающимися пропускной способности, затрат на обработку данных, конфиденциальности и степени регулирования. Возьмем, к примеру, мониторинг контроля безопасности входной двери. Потоковая прямая трансляция видео с камеры в облако в режиме 24/7 расточительна и дорога, особенно когда ничего не происходит. Но если с помощью пограничного искусственного интеллекта обнаруживается значительная активность, то облачные службы могут быть активированы для идентификации вызывающего абонента или определения иных необходимых действий.
Искусственный интеллект в конечном узле сети должен быть быстрее
Без сомнения, это правда, но не всегда. Например, если ИИ используется для управления автономным транспортным средством, то он должен быть сверхбыстрым. При скорости 55 миль в час (90 км/ч) транспортное средство будет проезжать более 80 футов (25 м) в секунду, поэтому ИИ должен обновляться за десятки миллисекунд. Таким образом, задержки сети при передаче данных к и от облачной системы абсолютно неприемлема. Но, как уже упоминалось выше, есть много причин для обработки данных в конечных узлах. Во многих случаях задержка в несколько секунд более чем достаточна. Требования к скорости системы являются условием приложения, а не местом реализации искусственного интеллекта.
Люди всегда победят «лучшего представителя» системы искусственного интеллекта
Как бы наше самолюбие не утверждало сей тезис, но это неправда. Люди являются фантастически адаптируемыми, быстрыми и интуитивно понятными учениками. Но в некоторых случаях, таких как идентификация опухолей при сканировании, системы на основе искусственного интеллекта оказались более надежными. Прошло более 20 лет с тех пор, как Deep Blue победил тогдашнего чемпиона мира по шахматам Гарри Каспарова. И совсем недавно исследователям искусственного интеллекта в Сингапуре удалось научить промышленных роботов выполнять задачу, которая выходит за рамки многих из нас — умение собирать разобранную мебель.
Искусственный интеллект – угроза нашей безопасности
На самом деле, многие рассматривают использование ИИ как щит для нашей конфиденциальности, избегая необходимости взаимодействия человека с конфиденциальными данными и изображениями. Сторонники искусственного интеллекта взволнованы тем, что эта технология может избежать ненужной потоковой передачи конфиденциальных аудио- и графических данных в облако. Со временем это может также привести к более легкому соблюдению новых правил безопасности хранения данных, например новый европейский GDPR (Общее положение о защите данных).
Высокоскоростное оборудование и облачные технологии требуются для всех систем искусственного интеллекта
Ложь. Системы обучения искусственного интеллекта определенно требуют очень быстрой обработки на базе центра обработки данных с использованием новейших графических процессоров или другого аппаратного ускорения. Но системы логического вывода ИИ могут быть развернуты с использованием более дешевого оборудования в конечном узле сети, часто без подключения к облаку, по причинам пропускной способности, стоимости, конфиденциальности и управления.
Размещение систем искусственного интеллекта в конечных узлах дорого
Конечно, это относительно дорого, но в настоящее время разрабатываются встроенные системы видения, которые реализуют ИИ, с использованием экономичных микросхем FPGA (программируемая логическая интегральная схема (ПЛИС)), подходящих для миллионов производств. В крупных городах можно реализовать значимые функции ИИ менее, чем за половину стоимости чашки кофе.
ИИ потребляет слишком много ресурсов для развертывания в конечном узле сети
Есть две причины этого заблуждения. Во-первых, люди путают обучение и обработку информации (анализ и выводы). Вне зависимости от этого, обучение требует значительных вычислительных ресурсов с современными подходами и предъявляет серьезные требования к «мощности железа», которые затрудняют, если не делают невозможным реализацию в узле. Во-вторых, многие ранние реализации искусственного интеллекта использовали процессоры и графические процессоры с ограниченным параллелизмом и необходимостью работать на высоких тактовых частотах (и, следовательно, на высокой мощности) для достижения приемлемой производительности для многих приложений.
Однако массово-параллельные реализации, подобные в ASIC или FPGA, обеспечивают уровни мощности, которые хорошо подходят для периферийных приложений. Недавно были продемонстрированы реализации функций FPGA, таких как распознавание лиц и обнаружение ключевых слов, при потребляемой мощности ниже 1 мВт.
Системы, использующие искусственный интеллект в конечных узлах, сложны для проектирования
Это было верно лет пять назад, когда ученые начали использовать сверточные нейронные сети (CNN) для обработки изображений. Реализация ИИ была не для «слабонервных». Однако сегодня такие инструменты, как TensorFlow и Caffe, упрощают проектирование и обучение нейронных сетей, тем более что многие ученые создали примеры, которые можно использовать в качестве отправной точки для проектирования. Это было дополнено рядом поставщиков встроенного оборудования, предоставляющих компиляторы, которые позволяют разработчикам внедрять сети в оборудование, подходящее для периферийных приложений. Теперь можно перейти от концепции к реализации в течение одной или двух недель.
Вычисления в узлах могут выполнять роль сервера
Это правда. Для многих людей периферийные вычисления означают промышленный сервер, который обрабатывает данные с фабрики. Это определенно имеет много преимуществ относительно обработки данных в облаке. Однако перемещение обработки на датчик дополнительно снижает трафик данных и сводит к минимуму требования к вышестоящим серверам при одновременном снижении задержки.
Искусственный интеллект в конечных узлах может работать с изображениями высокого разрешения
Некоторые новички в этой области предполагают, что алгоритмы ИИ требуют изображений с высоким разрешением для хорошей производительности. Однако обычно это не так. Многие из последних алгоритмов ИИ используют изображения размером 224 × 224 пикселей или 448 × 448 пикселей. И многие «практикующие системы» продемонстрировали полезные возможности в гораздо меньших разрешениях. Например, одна компания недавно продемонстрировала системы обнаружения лиц, разработанные с использованием 32 × 32-пиксельных изображений.