Искусственный интеллект (ИИ) лежит в основе будущих технологий. Системы ИИ учатся из огромного количества сложной, неструктурированной информации и превращают ее в полезную для человека информацию. Небезосновательно ожидать, что в течение следующих нескольких десятилетий из-за растущего объема данных, которые могут быть собраны и проанализированы, мы можем добиться значительных успехов в медицине, лучше проанализировать изменение климата и управлять сложностью мировой экономики.
Так же, как и к людям, доверие к системам искусственного интеллекта должно быть заработано с течением времени. Однако это не означает, что только время решит проблему доверия к искусственному интеллекту. Мы доверяем тем вещам, которые ведут себя так, как мы ожидаем, но, как и люди, ИИ совершает ошибки. Это связано с тем, что, несмотря на быстрые успехи, искусственный интеллект все еще находится на начальном этапе своего развития. Большинство систем, которые мы используем сегодня, используют глубокое обучение, которое является лишь одной формой ИИ. Глубокое обучение идеально подходит для поиска моделей и использования их для распознавания, категоризации и прогнозирования таких вещей, как рекомендации покупателям.
Тем не менее, эти системы могут по-прежнему допускать ошибки, связанные либо с ограничениями в наборе обучения, либо с неизвестным уклоном в алгоритмах, вызванным недостаточным пониманием того, как работают модели нейронных сетей. Результатом этих ошибок являются пугающие истории «о злом компьютере», такие как чаты, которые публикуют расистские и сексистские сообщения в Twitter, или программы ИИ, демонстрирующие расовую и гендерную предвзятость. Что должно случиться для общества, чтобы доверять системам на основе искусственного интеллекта?
Почему общество сомневается в полезности искусственного интеллекта?
Достижения в ИИ и их воплощение — робототехника — происходят ежедневно. Сегодня роботы могут выполнять многие человеческие задачи: от уборки до занятия фермерством, избавляя нас от трудоемких и постоянно повторяющихся задач, а также преобразуют многие профессий. Однако, когда упоминаются искусственный интеллект и роботы, особенно в средствах массовой информации, они часто вызывают реакции, такие как беспокойство и подозрение, как правило, с людьми, воображающими сцены из фильмов «Бегущий по лезвию» или «Терминатор», а человеческая раса стоит на коленях перед роботами. Это преувеличение.
Есть более реалистичные дискуссии, например, о том, что роботы занимают рабочие места и оставляют людей без возможности зарабатывать на жизнь. В некоторых случаях ИИ заменяет людей, но эти процессы всегда имели место с эволюцией. В качестве примера возьмем автономные транспортные средства. Искусственный интеллект будет влиять на такие профессии, как водители такси и грузовиков. Это также нарушит уже установившиеся процессы в автомобильной промышленности, потому что это изменит саму суть владение автомобилем. Зачем вам покупать автомобиль, который обычно стоит не дешево, заправлять его и производить текущий или вынужденный ремонт, когда вы можете заказать его, когда вам это нужно, и не нужно беспокоиться о парковке, обслуживании и многих других расходах, связанных с владением автомобилем?
Другая проблема, связанная с интеллектом, а могут ли роботы когда-нибудь стать более умными, чем люди, и «взять на себя бразды правления»? Роботы уже очень умны, но будут ли они развивать познавательные или поведенческие факторы, такие как чувства или мораль? Это основное различие между людьми и роботами — инстинктивно знать, что правильно, а что неправильно. Моральные принципы так и не были освоены искусственным интеллектом и, честно говоря, вряд ли когда-либо будет им освоено. Это связано с тем, что во всем мире не существует единого «кодекса этики», из которого можно создать алгоритм. В нем также подчеркивается проблема предвзятости в ИИ.
«Алгоритмическое смещение» — это когда кажущееся безвредное программирование берет на себя предрассудки его создателей или данные, которые они «кормили», как показано в примерах в начале этой статьи. Однако, проще говоря, машинное смещение — это человеческий уклон. Ключ к решению этой проблемы зависит от технологических компаний, инженеров и разработчиков, которые предпринимают заметные шаги для защиты от случайного создания алгоритма распознавания. Выполняя алгоритмический аудит и поддерживая прозрачность в любое время, мы можем быть уверены в том, что будем уклоняться от случайных алгоритмов искусственного интеллекта.
Важность прозрачности в системах искусственного интеллекта
Прозрачность от технологических компаний и систем ИИ, которые они создают, будет иметь ключевое значение для решения любых проблем — преимущества в производительности сами по себе не будут способствовать принятию искусственного интеллекта в обществе. Да, мы все используем цифровых персональных помощников, таких как Siri и Google Now, когда мы хотим найти подходящий ресторан или прослушать нашу любимую песню, но это не значит, что ИИ полностью нами принят. По мере того, как потребители будут знакомиться с искусственным интеллектом, понимание и потребность в прозрачности также возрастут, но останется один вопрос: как мы действительно сделаем эти системы прозрачными?
ИИ условно можно разделить на две основные категории: прозрачные и непрозрачные. Чтобы компании могли сообщать о принципе работе своей системы искусственного интеллекта, сначала им необходимо уточнить, к какой категории относятся их системы.
Прозрачные системы используют самообучающиеся алгоритмы, которые могут быть проверены, чтобы показать свою работу и как они пришли к их решению. Непрозрачные системы этого не делают. Вместо этого они работают сами по себе и не могут «открыть свои мысли».
Более простые формы автоматизированного принятия решений, такие как интеллектуальная аналитика, имеют тенденцию следовать довольно прозрачным моделям. Opaque ИИ может сформировать глубокие идеи, выходящие за рамки «мечтаний» своих разработчиков, но взамен он отнимает определенную степень контроля со стороны разработчика. Например, при распознавании речи на платформе Google или распознавании лиц Facebook, алгоритмы в основном точны, но объяснить их работу довольно трудно. Поэтому в долгосрочной перспективе необходимо сосредоточить внимание на разработке и использовании систем, которые не просто думают, а могут думать и объяснять, чтобы обеспечить полную прозрачность.
Что могут сделать разработчики?
Разработчики должны играть важную роль в создании и внедрении надежных систем искусственного интеллекта. Они должны быть спроектированы таким образом, чтобы они функционировали в соответствии с ценностями людей и общества, в которых они будут участвовать, чтобы их приняли. Но как?
При создании новых приложений разработчики должны задавать тенденции, стоящие за ними. Например, улучшит ли это жизнь людей или захотят ли пускать эти приложения в свою жизнь люди? С таким подходом разработчики начнут придумывать нужные виды приложений. Также важно, чтобы разработчики постоянно задавали вопрос, как и почему машины делают то, что делают.
Есть также вещи, которые можно сделать на низшем уровне. Технологическим компаниям необходимо привлекать широкий круг людей при создании нового приложения, продукта, сайта или «новой фишки». Разнообразие будет означать, что алгоритмы получают более широкий спектр данных. Кроме того, существует большая вероятность того, что любые проблемы будут обнаружены, если ряд людей будет постоянно анализировать результаты обучения.
Так можем ли мы доверять искусственному интеллекту?
Чтобы повысить доверие к искусственному интеллекту, нам нужно следить за новинками в этой области и знакомиться с терминологией, в то время, как технологические компании также должны нести ответственность и обеспечивать прозрачность систем ИИ, которые они создают. Например, система распознавания лиц, которая пытается проверить личность человека или же она анализирует и сохраняет эмоциональные реакции человека?
Также необходимо вести больше разговоров в отношении воздействия искусственного интеллекта на общество и культуру. Например, сколько времени мы должны ожидать обучение машины в будущем и должны ли быть социальные выплаты людям, если их работу будут выполнять роботы? Существует также вопрос, который Билл Гейтс затронул в отношении того, следует ли платить роботам и, в свою очередь, платить налоги, а также более широкий и сложный вопрос о том, сможет ли капитализм «переварить» ИИ в ближайшие десятилетия.
Этическое программирование роботов также должно быть приоритетом — не только технологическим. Как сказал профессор Стивен Хокинг:, «Компьютеры с ИИ будут настигать людей на определенном этапе в ближайшие 100 лет. Когда это происходит, мы должны убедиться, что компьютеры имеют цели, согласованные с нашими ». Это можно сделать только с прозрачностью и сотрудничеством в ответственном продвижении искусственного интеллекта.
Искусственный интеллект это не просто полезные «штучки». Со временем прогресс в данной области будет только расти. Поэтому, чтобы гарантировать, что мы можем доверять ИИ, мы все должны сыграть свою роль в обеспечении того, чтобы он был разработан и использовался ответственно.