Когда Илон Маск представляет робота‑гуманоида Tesla Bot, кажется, что новая научная революция уже совсем близко. Ещё чуть‑чуть — и искусственный интеллект (ИИ) превзойдёт человеческий, а машины заменят нас на работе. Однако профессора Гэри Маркус и Эрнест Дэвис, известные специалисты в области ИИ, просят не спешить с подобными выводами.
В книге «Искусственный интеллект: перезагрузка» исследователи объясняют, почему современные технологии далеки от идеальных. С разрешения издательства «Альпина PRO» Лайфхакер публикует отрывок из первой главы.
На данный момент существует огромный разрыв — настоящая пропасть — между нашими амбициями и реальностью искусственного интеллекта. Эта пропасть возникла вследствие нерешённости трёх конкретных проблем, с каждой из которых необходимо честно разобраться.
Первую из них мы называем легковерием, в основе которого лежит тот факт, что мы, люди, не научились по‑настоящему различать людей и машины, и это позволяет легко нас одурачивать. Мы приписываем интеллект компьютерам, потому что мы сами развивались и жили среди людей, которые во многом основывают свои действия на абстракциях, таких как идеи, убеждения и желания. Поведение машин часто внешне схоже с поведением людей, поэтому мы быстро приписываем машинам один и тот же тип базовых механизмов, даже если у машин они отсутствуют.
Мы не можем не думать о машинах в когнитивных терминах («Мой компьютер думает, что я удалил свой файл»), независимо от того, насколько просты правила, которым машины следуют на самом деле. Но выводы, которые оправдывают себя применительно к людям, могут быть совершенно неверными в приложении к программам искусственного интеллекта. В знак уважения к основному принципу социальной психологии мы называем это фундаментальной ошибкой оценки подлинности.
Один из первых случаев проявления этой ошибки произошёл в середине 1960‑х годов, когда чат‑бот по имени Элиза убедил некоторых людей, что он действительно понимает вещи, которые они ему рассказывают. На самом деле Элиза просто подбирала ключевые слова, повторяла последнее, что было ей сказано человеком, а в тупиковой ситуации прибегала к стандартным разговорным уловкам типа «Расскажите мне о своём детстве». Если бы вы упомянули свою мать, она спросила бы вас о вашей семье, хотя и не имела представления о том, что такое семья на самом деле или почему это важно для людей. Это был всего лишь набор трюков, а не демонстрация подлинного интеллекта.
Несмотря на то что Элиза совершенно не понимала людей, многие пользователи были одурачены диалогами с ней. Некоторые часами печатали фразы на клавиатуре, разговаривая таким образом с Элизой, но неправильно истолковывая приёмы чат‑бота, принимая речь попугая за полезные, душевные советы или сочувствие.
Люди, которые очень хорошо знали, что они разговаривают с машиной, вскоре забыли этот факт, точно так же как любители театра отбрасывают на время своё неверие и забывают, что действие, свидетелями которого они являются, не имеет права называться реальным.
Собеседники Элизы часто требовали разрешения на частную беседу с системой и после разговора настаивали, несмотря на все мои объяснения, на том, что машина действительно их понимает.
В иных случаях ошибка оценки подлинности может оказаться в прямом смысле слова фатальной. В 2016 году один владелец автоматизированной машины Tesla настолько доверился кажущейся безопасности автопилотного режима, что (по рассказам) полностью погрузился в просмотр фильмов о Гарри Поттере, предоставив машине всё делать самой.
Всё шло хорошо — пока в какой‑то момент не стало плохо. Проехав безаварийно сотни или даже тысячи миль, машина столкнулась (во всех смыслах этого слова) с неожиданным препятствием: шоссе пересекала белая фура, а Tesla понеслась прямо под прицеп, убив владельца автомобиля на месте. (Похоже, машина несколько раз предупреждала водителя, что ему следует взять управление на себя, но тот, по‑видимому, был слишком расслаблен, чтобы быстро отреагировать.)
Мораль этой истории ясна: то, что какое‑то устройство может показаться «умным» на мгновение или два (да пусть и полгода), вовсе не означает, что это действительно так или что оно может справиться со всеми обстоятельствами, в которых человек отреагировал бы адекватно.
Вторую проблему мы называем иллюзией быстрого прогресса: ошибочно принимать прогресс в искусственном интеллекте, связанный с решением лёгких проблем, за прогресс, связанный с решением по‑настоящему сложных проблем. Так, например, произошло с системой IBM Watson: её прогресс в игре Jeopardy! казался очень многообещающим, но на самом деле система оказалась куда дальше от понимания человеческого языка, чем это предполагали разработчики.
Вполне возможно, что и программа AlphaGo компании DeepMind пойдёт по тому же пути. Игра го, как и шахматы, — это идеализированная информационная игра, где оба игрока могут в любой момент видеть всю доску и рассчитывать последствия ходов методом перебора.
В большинстве случаев из реальной жизни никто ничего не знает с полной уверенностью; наши данные часто бывают неполными или искажёнными.
Даже в самых простых случаях существует много неопределённости. Когда мы решаем, идти ли к врачу пешком или поехать на метро (поскольку день пасмурный), мы не знаем точно, сколько времени потребуется для того, чтобы дождаться поезда метро, застрянет ли поезд по дороге, набьёмся ли мы в вагон как сельди в бочке или промокнем под дождём на улице, не решившись ехать на метро, и как доктор будет реагировать на наше опоздание.
Мы всегда работаем с той информацией, какая у нас есть. Играя в го сама с собой миллионы раз, система DeepMind AlphaGo никогда не имела дела с неопределённостью, ей попросту неизвестно, что такое нехватка информации или её неполнота и противоречивость, не говоря уже о сложностях человеческого взаимодействия.
Существует ещё один параметр, по которому интеллектуальные игры наподобие го сильно отличаются от реального мира, и это опять имеет отношение к данным. Даже сложные игры (если правила их достаточно строги) могут быть смоделированы практически идеально, поэтому системы искусственного интеллекта, которые в них играют, могут без труда собрать огромные объёмы данных, требующихся им для обучения. Так, в случае с го машина может симулировать игру с людьми, просто играя сама против себя; даже если системе потребуются терабайты данных, она сама же их и создаст.
Программисты могут таким образом получить абсолютно чистые данные моделирования практически без затрат. Напротив, в реальном мире идеально чистых данных не существует, невозможно их и смоделировать (поскольку правила игры постоянно изменяются), и тем более затруднительно собрать многие гигабайты релевантных данных методом проб и ошибок.
В действительности на апробацию разных стратегий у нас имеется всего несколько попыток.
Мы не в состоянии, например, повторить посещение врача 10 миллионов раз, постепенно корректируя параметры решений перед каждым визитом, чтобы кардинально улучшить наше поведение в плане выбора транспорта.
Если программисты хотят обучить робота для помощи пожилым людям (скажем, чтобы он помогал уложить немощных людей в постель), каждый бит данных будет стоить реальных денег и реального человеческого времени; здесь нет возможности собрать все требуемые данные с помощью симуляционных игр. Даже манекены для краш‑тестов не могут стать заменой реальным людям.
Нужно собирать данные о настоящих пожилых людях с разными особенностями старческих движений, о разных видах кроватей, разных видах пижам, разных типах домов, и здесь нельзя допускать ошибок, ведь уронить человека даже на расстоянии нескольких сантиметров от кровати было бы катастрофой. В данном случае на карту поставлены реальные жизни. Как IBM обнаруживала не один, а уже целых два раза (сначала в шахматах, а затем в Jeopardy!), успех в задачах из закрытого мира совершенно не гарантирует успеха в мире открытом.
Третий круг описываемой пропасти — это переоценка надёжности. Снова и снова мы видим, что, как только люди с помощью искусственного интеллекта находят решение какой‑то проблемы, которое способно функционировать без сбоев некоторое время, они автоматически предполагают, что при доработке (и с несколько большим объёмом данных) оно будет надёжно работать всё время. Но это вовсе не обязательно так.
Берём опять автомобили без водителей. Сравнительно легко создать демоверсию беспилотного автомобиля, который будет правильно двигаться по чётко размеченной полосе на спокойной дороге; впрочем, люди умеют это делать уже больше века. Однако куда сложнее заставить эти системы работать в сложных или неожиданных обстоятельствах.
Как рассказала нам в письме Мисси Каммингс, директор Лаборатории человека и автономных механизмов (Humans and Autonomy Laboratory) Университета Дьюка (и бывший лётчик‑истребитель ВМС США), вопрос не в том, сколько миль машина без водителя может проехать, не попав в аварию, а в том, насколько эти автомобили умеют адаптироваться к меняющимся ситуациям. По её словам, современные полуавтономные транспортные средства «обычно работают только в очень узком диапазоне условий, которые ничего не говорят о том, как они могут работать при условиях, отличающихся от идеальных».
Выглядеть абсолютно надёжным на миллионах пробных миль в Фениксе не означает хорошо функционировать во время муссона в Бомбее.
Это принципиальное различие между тем, как автономные транспортные средства ведут себя в идеальных условиях (например, солнечные дни на загородных многополосных дорогах), и тем, что они могли бы сделать в экстремальных условиях, легко может сделаться вопросом успеха и провала целой отрасли.
Из‑за того, что так мало внимания уделяется автономному вождению в экстремальных условиях и что современная методология не развивается в том направлении, чтобы гарантировать корректную работу автопилота в условиях, которые только‑только начинают рассматриваться по‑настоящему, вполне возможно, скоро выяснится, что миллиарды долларов были потрачены на методы построения беспилотных автомобилей, которые просто не в состоянии обеспечить надёжность вождения, сравнимую с человеческой. Возможно, что для достижения того уровня уверенности в технике, который нам необходим, потребуются подходы, кардинально отличные от нынешних.
И автомобили — это лишь один пример из множества аналогичных. В современных исследованиях искусственного интеллекта его надёжность была недооценена глобально. Отчасти это случилось потому, что большинство нынешних разработок в этой области связано с проблемами, имеющими высокую устойчивость к ошибкам, например рекомендации по развитию рекламы или продвижению новых товаров.
Действительно, если мы порекомендуем вам пять видов продукции, а понравятся вам только три из них, никакого вреда не случится. Но в целом ряде важнейших для будущего сфер применения искусственного интеллекта, включая автомобили без водителя, уход за пожилыми людьми и планирование медицинского обслуживания, решающее значение будет иметь надёжность, сопоставимая с человеческой.
Никто не купит домашнего робота, который способен благополучно донести до постели вашего престарелого дедушку лишь в четырёх случаях из пяти.
Даже в тех задачах, где современный искусственный интеллект должен теоретически предстать в самом лучшем свете, регулярно случаются серьёзные сбои, иногда выглядящие очень забавно. Типичный пример: компьютеры в принципе уже неплохо научились распознавать, что находится (или происходит) на том или ином изображении.
Иногда эти алгоритмы работают прекрасно, но зачастую выдают совершенно невероятные ошибки. Если вы показываете изображение автоматизированной системе, генерирующей подписи к фотографиям повседневных сцен, вы нередко получаете ответ, удивительно похожий на то, что написал бы и человек; например, для сцены ниже, где группа людей играет во фрисби, широко разрекламированная система генерации субтитров от Google даёт совершенно правильное название.
Но пятью минутами позже вы с лёгкостью можете получить от этой же системы совершенно абсурдный ответ, как вышло, например, с этим дорожным знаком, на который кто‑то налепил наклейки: компьютер назвал эту сцену «холодильником с большим количеством еды и напитков».
Точно так же автомобили без водителя часто правильно идентифицируют то, что они «видят», но иногда они как бы не замечают совершенно очевидных вещей, как в случае с Tesla, которые в режиме автопилота регулярно врезались в припаркованные пожарные машины или машины скорой помощи. Слепые зоны, подобные этим, могут быть ещё более опасными, если они кроются в системах, контролирующих электросети или ответственных за мониторинг здоровья населения.
Чтобы преодолеть пропасть между амбициями и реалиями искусственного интеллекта, нам нужны три вещи: ясное осознание тех ценностей, которые поставлены на карту в этой игре, отчётливое понимание того, почему современные системы ИИ не выполняют своих функций достаточно надёжно, и, наконец, новая стратегия развития машинного мышления.
Поскольку с точки зрения рабочих мест, безопасности и структуры общества ставки на искусственный интеллект действительно высоки, то существует настоятельная необходимость для всех нас — ИИ‑профессионалов, представителей смежных профессий, рядовых граждан и политиков — понять истинное состояние дел в данной области, чтобы научиться критически оценивать уровень и характер развития сегодняшнего искусственного интеллекта.
Точно так же, как для граждан, интересующихся новостями и статистикой, важно понять, как легко вводить людей в заблуждение словами и цифрами, так и здесь становится всё более значительным аспект понимания, чтобы мы были в состоянии разобраться в том, где искусственный интеллект — это лишь реклама, а где он реален; что он в состоянии делать уже сейчас, а что не умеет и, возможно, не научится.
Важнее всего осознать, что искусственный интеллект — это не волшебство, а просто набор технических приёмов и алгоритмов, каждый из которых имеет свои сильные и слабые стороны, подходит для одних задач и не подходит для других. Одна из основных причин, по которой мы взялись написать эту книгу, заключается в том, что многое из того, что мы читаем об искусственном интеллекте, представляется нам абсолютной фантазией, растущей из ничем не обоснованной уверенности чуть ли не в магической силе искусственного интеллекта.
Между тем к современным технологическим возможностям этот вымысел не имеет никакого отношения. К сожалению, обсуждение ИИ среди широкой публики в значительной степени находилось и находится под сильным влиянием домыслов и преувеличений: большинство людей не имеют представления о том, насколько трудной задачей является создание универсального искусственного интеллекта.
Давайте внесём ясность в дальнейшее обсуждение. Хотя прояснение реалий, связанных с ИИ, потребует от нас серьёзной критики, мы сами ни в коем случае не противники искусственного интеллекта, нам очень нравится эта сторона технического прогресса. Мы прожили значительную часть своей жизни как профессионалы в этой области и хотим, чтобы она развивалась как можно быстрее.
Американский философ Хьюберт Дрейфус однажды написал книгу о том, каких высот, по его мнению, искусственный интеллект не сможет достичь никогда. Наша книга не об этом. Отчасти она посвящена тому, что ИИ не может сделать в настоящее время и почему важно это понимать, но значительная часть её рассказывает о том, что можно было бы сделать, чтобы улучшить компьютерное мышление и распространить его на области, где сейчас оно с трудом делает первые шаги.
Мы не хотим, чтобы искусственный интеллект исчез; мы хотим, чтобы он улучшился, притом — радикально, так, чтобы мы могли действительно рассчитывать на него и решить с его помощью многочисленные проблемы человечества. У нас есть много критических фраз о текущем состоянии искусственного интеллекта, но наша критика — это проявление любви к науке, которой мы занимаемся, а не призыв к тому, чтобы сдаться и всё забросить.
Одним словом, мы верим, что искусственный интеллект действительно может серьёзно преобразовать наш мир; но также мы верим и в то, что многие базовые представления, касающиеся ИИ, должны измениться, прежде чем можно будет говорить о реальном прогрессе. Предлагаемая нами «перезагрузка» искусственного интеллекта — вовсе не повод поставить крест на исследованиях (хотя некоторые могут понять нашу книгу именно в таком духе), а скорее диагноз: где мы сейчас завязли и как нам выбраться из сегодняшней ситуации.
Мы полагаем, что лучшим способом продвижения вперёд может быть взгляд внутрь, обращённый к структуре нашего собственного разума.
По‑настоящему интеллектуальные машины не обязательно должны быть точной копией людей, но любой, кто честно смотрит на искусственный интеллект, увидит: ему есть ещё много чему поучиться у людей, особенно у маленьких детей, которые во многих отношениях намного превосходят машины по способности впитывать и понимать новые концепции.
Учёные‑медики часто характеризуют компьютеры как «сверхчеловеческие» (в том или ином отношении) системы, однако человеческий мозг всё ещё значительно превосходит свои кремниевые аналоги по крайней мере в пяти аспектах: мы можем понимать язык, мы можем понимать мир, мы можем гибко адаптироваться к новым обстоятельствам, мы можем быстро осваивать новые вещи (даже без больших объёмов данных) и можем рассуждать перед лицом неполной и даже противоречивой информации. На всех этих фронтах современные системы искусственного интеллекта находятся безнадёжно позади человека.
«Искусственный интеллект: перезагрузка» заинтересует людей, которые хотят разобраться в современных технологиях и понять, как и когда новое поколение ИИ сможет сделать нашу жизнь лучше.
Лучшие предложения
Находки AliExpress: самые интересные и полезные товары
10 полезных товаров дешевле 500 рублей
Находки AliExpress: 20 полезных товаров дешевле 1 000 рублей
Новый год как в детстве: 6 праздничных традиций, которые поможет соблюсти техника Gorenje
Отборные скидки до 64% от AliExpress, Redmond и других магазинов
15 стильных пуховиков стоимостью от 3 000 до 15 000 рублей
10 наборов для вышивания, с которыми захочется заняться рукоделием
12 комфортных дутиков для зимних прогулок
Обзор TECNO Spark 30 Pro — доступного смартфона, который не выбеливает селфи
Дайте две! Игра с промокодом на скидку 40% для всех, кто любит шоколад
10 шагов, которые помогут подготовиться к Новому году мечты
Как не заскучать на новогодних каникулах: 8 идей для детей и взрослых
Реклама