Почему робот не отнимет у вас работу (но только пока)
AP Photo/Jae C. Hong
Нашествие роботов не начнется завтра или послезавтра. Так что есть время разобраться в них поподробнее.
Первой была Мадалин.
Еще в 1959 году она использовала свой впечатляющий интеллект для устранения эха в телефонных разговорах, с которым раньше никто не умел бороться (тогда при междугородних звонках говорящим часто мешало эхо собственного голоса).
Мадалин решила эту проблему: если входящий сигнал оказывался точно таким же, как исходящий, он удалялся с помощью электроники, причем решение было настолько элегантным, что используется и по сей день. Конечно, речь идет не о человеке — это была система из нескольких адаптивных линейных элементов, по-английски Multiple ADAptive LINear Elements или Madaline. Это был первый случай практического использования искусственного интеллекта (ИИ).
Сегодня мы то и дело слышим, что роботы отнимут у нас работу, — мы еще будем допивать утренний кофе, а они уже переделают все наши дела, ведь им не нужны перекуры, перерывы на обед и ночной сон. На самом деле, хотя в самом ближайшем будущем многие рабочие места будут автоматизированы, эта новая порода супермашин, скорее всего, будет работать вместе с нами, а не вместо нас.
Несмотря на огромный прогресс в самых разных областях — сегодня программы умеют распознавать мошенников еще до совершения преступления и надежнее врачей диагностировать рак, — даже самые современные ИИ-системы ни на йоту не приблизились к так называемому общему интеллекту.
Согласно отчету консалтингового агентства McKinsey, 5% рабочих мест могут быть полностью автоматизированы, но в 60% профессий роботы смогут взять на себя лишь около трети задач.
…Итак, прежде чем накрываться простыней и ползти на кладбище, давайте обсудим, как именно может быть устроена совместная работа с роботами и какие причины помешают им занять наши места.
Содержание:
Причина №1: Роботы не умеют думать как человек
Примерно в те же годы, когда Мадалин начинала свою службу на телефонных линиях, венгерско-британский философ Майкл Полани много размышлял о человеческом интеллекте. Он понял, что есть навыки, которые можно описать четкими правилами и объяснить (как правильную расстановку запятых), но это лишь часть того, чем мы занимаемся.
Люди могут выполнять массу разных вещей, даже не осознавая, как именно они это делают. Полани сформулировал это так: «Мы знаем больше, чем можем
сказать». Это могут быть и практические навыки вроде езды на велосипеде или замешивания теста, а также более высокоуровневые задачи. И, увы, если мы не знаем правил, мы не можем передать их компьютеру, — это парадокс Полани.
Ученые вместо того, чтобы попытаться воссоздать человеческий интеллект, пошли другим путем — они начали разрабатывать мышление, управляемое данными.
Рич Каруана, старший научный сотрудник Microsoft Research говорит: «Некоторым кажется, что ИИ будет работать так: мы поймем, как думают люди, а потом построим машину по нашему образу и подобию. Не тут-то было». Он приводит пример самолетов, которые были изобретены задолго до того, как мы поняли, как летают птицы — да, они устроены по совсем другим аэродинамическим принципам, но в итоге мы летаем выше, быстрее и дальше, чем любое живое существо.
Как и Мадалин, многие системы ИИ являются нейронными сетями, то есть они учатся на огромных массивах данных, используя математические модели. Например, Facebook натренировал свою программу для распознавания лиц под названием DeepFace на наборе из четырех миллионов фотографий. Он искал закономерности в снимках, помеченных, как изображения одного и того же человека, и в итоге научился правильно сопоставлять фотографии примерно в 97% случаев.
Программы подобные DeepFace — это восходящие звезды Кремниевой долины, и они уже превзошли своих создателей во многом: в вождении автомобиля, в распознавании голоса, переводе текста с одного языка на другой и, конечно же, в разметке фотографий. И это не конец, в будущем они проникнут в самые разные области, от здравоохранения до финансов.
Причина №2: Наши новые друзья-роботы не идеальны, они делают ошибки
Увы, обучение на примере существующих данных означает, что ИИ может делать ошибки, причем иногда неожиданные. Скажем, нейронная сеть может заключить, что черепаха, напечатанная на 3D-принтере, является винтовкой (это реальный эксперимент ученых Массачусетского технологического института). Программа не может мыслить как человек, рассуждая, что это животное с панцирем и чешуйчатой кожей, то есть черепаха. Она думает шаблонами — в данном случае графическими, то есть сочетаниями пикселей, и изменение буквально одного пикселя может превратить разумный ответ в совершенно нелепый.
Кроме того, у роботов нет здравого смысла, без которого нечего делать на любой работе, ведь он позволяет применять имеющиеся знания к новым ситуациям, с которыми мы прежде не встречались.
Классический пример — искусственный интеллект DeepMind. Еще в 2015 году ему дали классическую компьютерную игру Pong, и он начал упражняться в ней, постепенно повышая уровень игры. Как и следовало ожидать, уже через несколько часов он начал обыгрывать людей, и даже изобрел несколько совершенно новых приемов, ведущих к победе, но освоение почти такой же игры Breakout ему пришлось начинать с нуля.
Впрочем, теперь этим вопросам уделяют большое внимание, и есть система под названием IMPALA, демонстрирующая передачу знаний между 30 различными средами.
Причина №3: Роботы не могут объяснить, почему они приняли то или иное решение
Еще одна проблема ИИ — современная версия парадокса Полани. Поскольку мы не очень понимаем, как работают наши собственные мозги, мы научили ИИ думать «статистически», и теперь не знаем, что происходит у него «в голове» тоже.
Обычно это называется «проблемой черного ящика»: мы знаем, какие данные подали на вход, видим результат, но не представляем, как стоящий перед нами ящик пришел к этому выводу. Каруана говорит: «Итак, теперь у нас уже два вида интеллекта, и мы не понимаем ни один из них».
Нейронные сети не умеют говорить, поэтому они не могут объяснить нам, что и почему делают. А кроме того, как у любого ИИ, у них нет здравого смысла.
Несколько десятилетий назад Каруана применил нейронную сеть к некоторым медицинским данным. На входе он вводил в систему симптомы и исход лечения, желая рассчитать риск смерти пациентов с течением времени — на основании этих прогнозов врачи могли бы принимать профилактические меры. Казалось, что все работает хорошо, но однажды ночью студент-магистрант Университета Питтсбурга заметил что-то странное. Он прошелся по тем же данным с помощью более простого алгоритма, позволяющего проследить логику принятия решения, и обнаружил, что система считает астму положительным фактором при пневмонии.
Каруана говорит: «Мы пошли с этим к врачам, и они сказали, что это не так, и что систему нужно поправить — астма влияет на легкие, поэтому это дополнительный фактор риска при пневмонии». Как так вышло, мы никогда не узнаем, но у разработчиков есть версия, что, возможно, пациенты с астмой внимательнее относятся к болезням легких и раньше идут к врачу, а значит, чаще выздоравливают.
Интерес к использованию ИИ в разных областях человеческой деятельности растет, и это вызывает беспокойство у экспертов. В этом году вступают в силу новые правила Европейского союза, согласно которым человек, относительно которого ИИ принял то или иное решение, имеет право узнать логику, согласно которой это решение было принято. А агентство Darpa, исследовательское подразделение американского Министерства обороны, инвестирует 70 млн долларов в программу развития «объясняемого» ИИ.
Дэвид Ганнинг, руководитель проекта Darpa, говорит: «В последнее время точность этих систем выросла на порядок, но мы платим за это растущей сложностью и непрозрачностью — мы не знаем, почему она принимает то или иное решение, и почему в игре она делает именно такой ход».
Причина №4: Роботы могут быть предвзяты
На этом фоне высказываются опасения, что алгоритмы могут унаследовать от нас предрассудки, в том числе сексизм или расизм. К примеру, недавно оказалось, что программа, вычисляющая вероятность повторного правонарушения для преступника, вдвое чаще указывала на возможный рецидив для чернокожих осужденных.
Все зависит от данных, на которых учится алгоритм, — если они ясны и непротиворечивы, тогда принимаемое решение, скорее всего, будет правильным. Тем не менее в наборы данных зачастую уже «встроены» человеческие предрассудки.
Вот яркий пример из Google Translate: если вы переведете с английского на венгерский фразу «He is a nurse. She is a doctor» (это значит «Он медбрат, она врач», но в английском, в отличие от русского, у слова nurse нет признака пола), а затем переведете ее обратно на английский, она превратится в противоположность, «She’s a nurse. He is a doctor», то есть «Она медсестра, он врач».
Дело в том, что алгоритм сервиса натренирован на триллионах страниц, и из них он знает, что у врача больше шансов быть мужчиной, а медсестры чаще женщины.
Еще одна проблема — расстановка весов. Часто при анализе данных ИИ, как и люди, «взвешивает» разные параметры, решая, какие из них важны, а какие нет, и алгоритм может решить, что почтовый индекс человека, характеризующий район проживания, связан с кредитным рейтингом, и тем самым представители этнических меньшинств, живущие в бедных районах, будут дополнительно дискриминированы.
Но расизмом и сексизмом дело не ограничивается — бывают предубеждения, которых мы не ожидаем. Лауреат Нобелевской премии Даниэль Канеман, всю жизнь изучающий человеческую иррациональность, хорошо объяснил суть проблемы в своем интервью блогу Freakonomics в 2011 году:
«Если мы пользуемся эвристическими обобщениями, они по самой своей природе неизбежно будут демонстрировать смещения оценок, и это справедливо и для человека, и для искусственного интеллекта — вот только у ИИ не человеческие эвристики».
Роботы наступают, и, конечно, их приход необратимо изменит рынок труда, но пока они не научатся думать как люди, им без нас не обойтись. Просто завтра среди наших коллег появятся кремниевые экземпляры.
Источник: ru.ihodl.com