AI зима - AI winter

в история искусственного интеллекта, AI зима период сокращения финансирования и интереса к искусственный интеллект исследование.[1] Термин был придуман аналогия к идее ядерная зима.[2] Поле испытало несколько циклы ажиотажа, за которыми последовали разочарование и критика, за которыми последовало сокращение финансирования, за которым последовало возобновление интереса спустя годы или десятилетия.

Этот термин впервые появился в 1984 году как тема публичных дебатов на ежегодном собрании AAAI (тогда называлась «Американская ассоциация искусственного интеллекта»). Это цепная реакция, которая начинается с пессимизма в сообществе ИИ, за которым следует пессимизм в прессе, за которым следует серьезное сокращение финансирования, за которым следует прекращение серьезных исследований.[2] На встрече, Роджер Шэнк и Марвин Мински - два ведущих исследователя искусственного интеллекта, пережившие «зиму» 1970-х, предупредили бизнес-сообщество, что энтузиазм по поводу ИИ вышел из-под контроля в 1980-х и что за этим обязательно последует разочарование. Три года спустя индустрия искусственного интеллекта стоимостью в миллиард долларов начала рушиться.[2]

Шумиха распространена во многих новых технологиях, таких как железнодорожная мания или пузырь доткомов. Зима AI стала результатом такой шумихи из-за завышенных обещаний разработчиков, неестественно завышенных ожиданий со стороны конечных пользователей и обширного продвижения в СМИ.[3] Несмотря на взлет и падение репутации ИИ, он продолжает разрабатывать новые успешные технологии. Исследователь ИИ Родни Брукс в 2002 году жаловался, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ находится рядом с вами каждую секунду дня».[4] В 2005 году, Рэй Курцвейл согласился: «Многие наблюдатели все еще думают, что зима ИИ стала концом истории и что с тех пор из области ИИ ничего не вышло. Тем не менее, сегодня многие тысячи приложений ИИ глубоко встроены в инфраструктуру каждой отрасли».[5]

Энтузиазм и оптимизм по поводу ИИ в целом возросли с момента его пика в начале 1990-х годов. Примерно с 2012 г. интерес к искусственному интеллекту (и особенно к подобласти машинное обучение ) от исследовательских и корпоративных сообществ привели к резкому увеличению финансирования и инвестиций.

Обзор

В 1974–1980 и 1987–1993 годах было две основные зимы.[6] и несколько небольших эпизодов, в том числе следующие:

Ранние эпизоды

Машинный перевод и отчет ALPAC за 1966 г.

Вовремя Холодная война, правительство США было особенно заинтересовано в автоматическом, мгновенном переводе документов и научных отчетов на русский язык. Правительство активно поддерживало усилия по машинному переводу, начиная с 1954 года. Вначале исследователи были настроены оптимистично. Ноам Хомский новая работа в грамматика оптимизировал процесс перевода, и было «много предсказаний о неизбежных« прорывах »».[7]

Брифинг для вице-президента США Джеральд Форд в 1973 г. на стыковочная грамматика модель компьютерного перевода

Однако исследователи недооценили огромную трудность словесная неоднозначность. Чтобы перевести предложение, машине нужно было иметь представление о том, о чем идет речь, иначе она допускала ошибки. Апокрифический[8] Пример такой: «дух желает, а плоть немощна». В переводе на русский язык получилось: «водка хорошая, а мясо гнилое».[9] Точно так же «вне поля зрения, из виду» стал «слепым идиотом». Позже исследователи назвали бы это здравый смысл проблема.

К 1964 г. Национальный исследовательский совет забеспокоился об отсутствии прогресса и сформировал Консультативный комитет по автоматической обработке языков (ALPAC ), чтобы разобраться в проблеме. В известном отчете 1966 года они пришли к выводу, что машинный перевод дороже, менее точен и медленнее, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC прекратил всякую поддержку. Карьеры были разрушены, и исследования прекратились.[2][7]

Машинный перевод по-прежнему открыто проблема исследования в 21 веке, которая имела определенный успех (переводчик Google, Yahoo Babel Fish ).

Отказ от коннекционизма в 1969 году

Смотрите также: Персептроны и Фрэнк Розенблатт

Некоторые из самых ранних работ в области искусственного интеллекта использовали сети или схемы связанных устройств для имитации интеллектуального поведения. Примеры такого рода работы, называемой «коннекционизмом», включают Уолтер Питтс и Уоррен Маккалоу первое описание нейронная сеть для логики и Марвин Мински работает над SNARC система. В конце 1950-х годов от большинства этих подходов отказались, когда исследователи начали исследовать символический рассуждения как сущность интеллекта, следуя за успехом программ, подобных Теоретик логики и Решение общих проблем.[10]

Однако продолжался один вид коннекционистской работы: изучение перцептроны, изобретенный Фрэнком Розенблаттом, который поддерживал жизнь в этой области своим умением продавать и силой своей личности.[11]Он оптимистично предсказал, что перцептрон «со временем сможет учиться, принимать решения и переводить языки».[12]Основные исследования перцептронов внезапно прекратились в 1969 году, когда Марвин Мински и Сеймур Паперт опубликовал книгу Персептроны, который воспринимался как очерчивание пределов возможностей перцептронов.

От коннекционистских подходов отказались примерно на следующее десятилетие. Хотя важные работы, такие как Пол Вербос 'открытие обратное распространение, продолжавшаяся в ограниченном объеме, в 1970-х и начале 1980-х было трудно найти финансирование для проектов коннекционистов.[13]«Зима» коннекционистских исследований подошла к концу в середине 1980-х годов, когда работы Джон Хопфилд, Дэвид Румелхарт и другие возродили массовый интерес к нейронным сетям.[14] Розенблатт не дожил до этого, так как вскоре после этого он погиб в катастрофе. Персептроны был опубликован.[12]

Неудачи 1974 года

Отчет Лайтхилла

В 1973 г. профессор Сэр Джеймс Лайтхилл спросила Великобритания Парламент оценить состояние исследований ИИ в Соединенном Королевстве. В его отчете, который теперь называется отчетом Лайтхилла, критиковалась полная неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что ничего, что делается в искусственном интеллекте, невозможно сделать в других науках. Он особо отметил проблему "комбинаторный взрыв " или же "несговорчивость ", что означало, что многие из наиболее успешных алгоритмов ИИ остановятся на реальных проблемах и подходят только для решения" игрушечных "версий.[15]

Это сообщение было оспорено в ходе дебатов, транслировавшихся в сериале BBC "Controversy" в 1973 году. Дебаты Королевского института "Робот общего назначения - мираж" были противостоянием Лайтхиллу с командой Дональд Мичи, Джон Маккарти и Ричард Грегори.[16] Позже Маккарти писал, что «проблема комбинаторного взрыва признавалась в ИИ с самого начала».[17]

Отчет привел к полному отказу от исследований ИИ в Англии.[15] Исследования ИИ продолжались только в нескольких университетах (Эдинбург, Эссекс и Сассекс). Широкомасштабные исследования не возобновились до 1983 года, когда Алви (исследовательский проект британского правительства) снова начал финансировать ИИ из военного фонда в размере 350 миллионов фунтов стерлингов в ответ на японский проект пятого поколения (см. ниже). У Алви был ряд требований только для Великобритании, которые не устраивали на международном уровне, особенно с партнерами из США, и потерял финансирование фазы 2.

Сокращение финансирования DARPA в начале 1970-х

В 1960-е гг. Агентство перспективных оборонных исследовательских проектов (тогда известная как «ARPA», теперь известная как «DARPA») предоставила миллионы долларов на исследования ИИ без каких-либо ограничений. Директор DARPA в те годы, Дж. К. Р. Ликлайдер верили в «финансирование людей, а не проектов»[18] и позволил лидерам ИИ (таким как Марвин Мински, Джон Маккарти, Герберт А. Саймон или же Аллен Ньюэлл ) потратить практически так, как им нравится.

Это отношение изменилось после прохождения Поправка Мэнсфилда в 1969 году, что потребовало от DARPA финансирования «целенаправленных прямых исследований, а не фундаментальных неориентированных исследований».[19] Чистые ненаправленные исследования, подобные тем, которые проводились в 1960-х годах, больше не будут финансироваться DARPA. Теперь исследователи должны были показать, что их работа скоро приведет к появлению полезных военных технологий. Предложения по исследованию ИИ соответствовали очень высоким стандартам. Ситуация не улучшилась, когда отчет Lighthill и собственное исследование DARPA ( Американская исследовательская группа ) предположил, что большинство исследований ИИ вряд ли принесут что-то действительно полезное в обозримом будущем. Деньги DARPA были направлены на конкретные проекты с определенными целями, такие как автономные танки и системы управления боем. К 1974 году найти финансирование для проектов ИИ было трудно.[19]

Исследователь ИИ Ганс Моравец объяснил кризис нереалистичными предсказаниями своих коллег: «Многие исследователи попали в сеть растущего преувеличения. Их первоначальные обещания DARPA были слишком оптимистичными. Конечно, то, что они сделали, существенно не соответствовало этому. Но они чувствовали в следующем предложении они не могли обещать меньше, чем в первом, поэтому обещали больше ».[20] В результате, утверждает Моравец, некоторые сотрудники DARPA потеряли терпение в исследованиях ИИ. «В DARPA буквально было сказано, что« некоторые из этих людей получат урок, [] сократив их контракты на два миллиона долларов в год почти до нуля! »- сказал Моравец. Даниэль Кревье.[21]

Хотя проект автономного танка провалился, система управления боем ( Инструмент динамического анализа и перепланирования ) оказался чрезвычайно успешным, сэкономив миллиарды в первом Война в Персидском заливе, возмещая все инвестиции DARPA в AI[22] и оправдание прагматической политики DARPA.[23]

Фиаско SUR

DARPA было глубоко разочаровано исследователями, работающими над программой исследования понимания речи в Университете Карнеги-Меллона. Агентство DARPA надеялось и чувствовало, что оно было обещано, на систему, способную реагировать на голосовые команды пилота. Команда SUR разработала систему, которая могла распознавать разговорный английский, но только если слова были произнесены в определенном порядке. DARPA посчитало, что его обманули, и в 1974 году отменило грант в три миллиона долларов в год.[24]

Много лет спустя несколько успешных коммерческих распознавание речи системы будут использовать технологию, разработанную командой Карнеги-Меллона (например, скрытые марковские модели ), а к 2001 году рынок систем распознавания речи достигнет 4 миллиардов долларов.[25]

Неудачи конца 1980-х - начала 1990-х годов

Крах 1987 года на рынке машин LISP

В 1980-х годах программа ИИ под названием "экспертная система "была принята корпорациями по всему миру. Первая коммерческая экспертная система была XCON, разработанная в Университет Карнеги-Меллона за Корпорация цифрового оборудования, и это был огромный успех: по оценкам, всего за шесть лет работы компания сэкономила 40 миллионов долларов. Корпорации по всему миру начали разрабатывать и развертывать экспертные системы, и к 1985 году они потратили более миллиарда долларов на ИИ, большую часть из них - внутренние отделы ИИ. Для их поддержки выросла отрасль, в том числе такие компании-разработчики программного обеспечения, как Teknowledge и Intellicorp (KEE) и производители оборудования, такие как Символика и LISP Machines Inc. кто построил специализированные компьютеры, называется LISP машины, которые были оптимизированы для обработки языка программирования LISP, предпочтительный язык для AI.[26][27]

В 1987 году, через три года после книги Мински и Шанка. прогноз, рынок специализированного оборудования для искусственного интеллекта рухнул. Рабочие места от компаний типа Sun Microsystems предложили мощную альтернативу машинам LISP, а такие компании, как Lucid, предложили среду LISP для этого нового класса рабочих станций. Производительность этих обычных рабочих станций становилась все более сложной задачей для LISP Machines. Компании как Lucid и Франц ЛИСП предлагали все более мощные версии LISP, переносимые на все системы UNIX. Например, были опубликованы тесты производительности, показывающие, что рабочие станции имеют преимущество в производительности по сравнению с машинами LISP.[28] Позже настольные компьютеры, построенные яблоко и IBM также предложит более простую и популярную архитектуру для запуска приложений LISP. К 1987 году некоторые из них стали такими же мощными, как более дорогие LISP-машины. У настольных компьютеров были механизмы на основе правил, такие как КЛИПЫ имеется в наличии.[29] Эти альтернативы не оставили потребителям причин покупать дорогостоящую машину, специализированную для работы с LISP. Целая отрасль стоимостью полмиллиарда долларов была заменена за один год.[30]

В коммерческом плане многие LISP компании потерпели неудачу, такие как Symbolics, LISP Machines Inc., Lucid Inc. и т. д. Другие компании, например Инструменты Техаса и Ксерокс, покинул поле. Однако ряд компаний-заказчиков (то есть компаний, использующих системы, написанные на LISP и разработанные на машинных платформах LISP) продолжали поддерживать системы. В некоторых случаях это обслуживание предполагало выполнение работ по поддержке. [3]

Замедление развертывания экспертных систем

К началу 1990-х годов первые успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было трудно обновлять, они не могли учиться, они были «хрупкими» (т. Е. Могли делать гротескные ошибки при необычных входных данных) и становились жертвами проблем (например, проблема квалификации ), которые были идентифицированы годами ранее в исследованиях в немонотонная логика. Экспертные системы оказались полезными, но только в некоторых особых контекстах.[31][32] Другая проблема связана с вычислительной трудностью сохранение истины усилия для общих знаний. KEE использовал подход, основанный на предположениях (см. НАСА, TEXSYS ) поддержка сценариев множественных миров, которые было трудно понять и применить.

Немногим оставшимся компаниям-оболочкам экспертных систем в конечном итоге пришлось сократить штат и искать новые рынки и парадигмы программного обеспечения, такие как аргументация по делу или универсальный база данных доступ. Созревание Common Lisp спасло многие системы, такие как ICAD которые нашли применение в инженерия, основанная на знаниях. Другие системы, такие как Intellicorp's KEE, перешли с LISP на C ++ (вариант) на ПК и помогли установить объектно-ориентированная технология (включая оказание основной поддержки в разработке UML (видеть Партнеры UML ).

Конец проекта пятого поколения

В 1981 г. Министерство международной торговли и промышленности Японии выделить 850 миллионов долларов на Компьютер пятого поколения проект. Их цель заключалась в написании программ и создании машин, которые могли бы вести разговоры, переводить языки, интерпретировать изображения и рассуждать, как люди. К 1991 году впечатляющий список целей, поставленных в 1981 году, не был достигнут. Действительно, некоторые из них не были реализованы ни в 2001, ни в 2011 году. Как и в случае с другими проектами искусственного интеллекта, ожидания были намного выше, чем было возможно на самом деле.[33][34]

Сокращение Стратегической вычислительной инициативы

В 1983 году в ответ на проект пятого поколения DARPA снова начало финансировать исследования ИИ через стратегическую вычислительную инициативу. Первоначально предполагалось, что проект будет начинаться с практических, достижимых целей, которые даже включают искусственный интеллект в качестве долгосрочной цели. Программа проходила под руководством Офис технологий обработки информации (IPTO), а также был направлен на суперкомпьютеры и микроэлектроника. К 1985 году было потрачено 100 миллионов долларов, и 92 проекта находились в стадии реализации в 60 учреждениях, половина из которых - в промышленности, половина - в университетах и ​​государственных лабораториях. Исследования искусственного интеллекта щедро финансировались SCI.[35]

Джек Шварц, ставший лидером IPTO в 1987 году, назвал экспертные системы «умным программированием» и урезал финансирование ИИ «глубоко и жестоко», «потрошив» SCI. Шварц считал, что DARPA должно сосредоточить свое финансирование только на тех технологиях, которые являются наиболее многообещающими, по его словам, DARPA должно «заниматься серфингом», а не «веслом для собак», и он был уверен, что ИИ был нет «следующая волна». Инсайдеры программы указали на проблемы в общении, организации и интеграции. Несколько проектов пережили сокращение финансирования, в том числе помощник пилота и автономный наземный транспорт (которые так и не были доставлены) и система управления боем DART, которая (как отмечалось выше) была успешной.[36]

События после зимы с искусственным интеллектом

Обзор отчетов начала 2000-х годов показывает, что репутация ИИ все еще была менее звездной:

  • Алекс Кастро, цитируется в Экономист, 7 июня 2007 г .: «[Инвесторов] оттолкнул термин« распознавание голоса », который, как и« искусственный интеллект », ассоциируется с системами, которые слишком часто не оправдывают своих обещаний».[37]
  • Пэтти Таскарелла в Pittsburgh Business Times, 2006: «Некоторые считают, что слово« робототехника »на самом деле несет клеймо, которое снижает шансы компании на получение финансирования».[38]
  • Джон Маркофф в Нью-Йорк Таймс, 2005: «На пике популярности некоторые компьютерные ученые и инженеры-программисты избегали термина« искусственный интеллект », опасаясь, что их будут рассматривать как мечтателей с безумными глазами».[39]

Многие исследователи ИИ в середине 2000-х сознательно называли свои работы другими именами, Такие как информатика, машинное обучение, аналитика, системы, основанные на знаниях, управление бизнес-правилами, когнитивные системы, интеллектуальные системы, интеллектуальные агенты или же вычислительный интеллект, чтобы указать, что их работа делает упор на определенные инструменты или направлена ​​на решение конкретной подзадачи. Хотя отчасти это может быть связано с тем, что они считают свою сферу деятельности фундаментально отличной от ИИ, верно и то, что новые имена помогают получать финансирование, избегая клейма ложных обещаний, связанных с названием «искусственный интеллект».[39][40]

Интеграция AI

В конце 1990-х и начале 21 века технология искусственного интеллекта стала широко использоваться в качестве элементов более крупных систем,[41][5] но эти успехи редко приписывают этой области. В 2006 г. Ник Бостром объяснил, что «многие передовые технологии ИИ проникли в общие приложения, часто без названия ИИ, потому что, как только что-то становится достаточно полезным и достаточно распространенным, оно больше не именуется ИИ».[42] Родни Брукс заявил примерно в то же время, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ находится рядом с вами каждую секунду дня».[4]

Технологии, разработанные исследователями ИИ, достигли коммерческого успеха в ряде областей, таких как машинный перевод, сбор данных, промышленная робототехника, логистика,[43] распознавание речи,[44] банковское программное обеспечение,[45] медицинский диагноз,[45] и Google поисковик.[46]

Нечеткая логика контроллеры были разработаны для автоматических коробок передач в автомобилях (Audi TT 2006, VW Touareg[47] и VW Caravell имеют передачу DSP, которая использует нечеткую логику, ряд вариантов Škoda (Škoda Fabia ) также в настоящее время включают контроллер на основе нечеткой логики). Датчики камеры широко используются нечеткая логика чтобы включить фокус.

Эвристический поиск и аналитика данных обе технологии, разработанные эволюционные вычисления и подразделение машинного обучения исследовательского сообщества AI. Опять же, эти методы были применены к широкому кругу реальных проблем со значительным коммерческим успехом.

Технологии анализа данных, использующие алгоритмы для автоматического формирования классификаторов, которые были разработаны в сообществе контролируемого машинного обучения в 1990-х годах (например, TDIDT, Support Vector Machines, Neural Nets, IBL), теперь используются[когда? ] широко используется компаниями для таргетинга маркетинговых исследований и выявления тенденций и особенностей в наборах данных.

Финансирование AI

Исследователи и экономисты часто оценивали состояние «зимы ИИ», анализируя, какие проекты ИИ финансируются, в каком объеме и кем. Тенденции в финансировании часто устанавливаются крупными финансирующими агентствами в развитых странах. В настоящее время DARPA и гражданская программа финансирования под названием EU-FP7 обеспечивают большую часть финансирования исследований ИИ в США и Евросоюз.

По состоянию на 2007 год DARPA запрашивало предложения по исследованию ИИ в рамках ряда программ, включая Программа Grand Challenge, Система предупреждения об угрозах, связанных с когнитивными технологиями (CT2WS), "Нейронные устройства с участием человека (SN07-43)", "Автономная наземная универсальная система видеонаблюдения в реальном времени (ARGUS-IS)" и "Градостроительство и технология геопространственной эксплуатации (СРОЧНО)"

Возможно, самой известной является программа DARPA Grand Challenge.[48] которая разработала полностью автоматизированные дорожные транспортные средства, которые могут успешно перемещаться по реальной местности.[49] полностью автономно.

DARPA также поддерживает программы на Семантическая сеть с большим упором на интеллектуальное управление контентом и автоматическое понимание. тем не мение Джеймс Хендлер, менеджер программы DARPA в то время, выразил некоторое разочарование способностью правительства добиться быстрых изменений и перешел к работе с Консорциум World Wide Web передать технологии в частный сектор.

Программа финансирования EU-FP7 предоставляет финансовую поддержку исследователям из Европейского Союза. В 2007–2008 годах он финансировал исследования ИИ в рамках программы «Когнитивные системы: взаимодействие и робототехника» (193 млн евро), программы электронных библиотек и контента (203 млн евро) и программы FET (185 млн евро).[50]

Текущая «AI весна»

Заметное увеличение финансирования, разработки, развертывания и коммерческого использования ИИ привело к мысли, что зима ИИ давно закончилась.[51] Время от времени высказываются опасения, что новая зима ИИ может быть спровоцирована чрезмерно амбициозными или нереалистичными обещаниями известных ученых в области ИИ или чрезмерными обещаниями со стороны коммерческих поставщиков.

Успехами нынешней «весны искусственного интеллекта» являются достижения в языковом переводе (в частности, переводчик Google ), распознавание изображений (под влиянием ImageNet учебная база данных), коммерциализированная Поиск картинок Google, и в игровых системах, таких как AlphaZero (чемпион по шахматам) и AlphaGo (иди чемпионом), и Watson (Опасность чемпион). Большинство этих достижений произошло с 2010 года.

Основные причины зим искусственного интеллекта

Было выдвинуто несколько объяснений причин ИИ зим в целом. По мере того, как ИИ переходил от приложений, финансируемых государством, к коммерческим, в игру вступала новая динамика. Пока шумиха является наиболее часто цитируемой причиной, объяснения не обязательно являются взаимоисключающими.

Шумиха

ИИ зимы могут[нужна цитата ] частично следует понимать как последовательность завышенных ожиданий и последующего краха фондовых рынков, который можно было бы проиллюстрировать[нужна цитата ] посредством железнодорожная мания и пузырь доткомов. В обычном паттерне развития новых технологий (известном как цикл ажиотажа) событие, обычно технологический прорыв, создает рекламу, которая подпитывается сама собой, чтобы создать «пик завышенных ожиданий», за которым следует «впадина разочарования». Поскольку научно-технический прогресс не успевает за ростом ожиданий инвесторов и других заинтересованных сторон, вызванного оглаской, должен последовать крах. Технология искусственного интеллекта, похоже, не исключение из этого правила.[нужна цитата ]

Например, в 1960-х годах осознание того, что компьютеры могут моделировать однослойные нейронные сети, привело к циклу ажиотажа в отношении нейронных сетей, который длился до публикации книги в 1969 году. Персептроны что сильно ограничивало набор проблем, которые могли быть оптимально решены одноуровневыми сетями. В 1985 году осознание того, что нейронные сети могут использоваться для решения задач оптимизации, в результате известных работ Хопфилда и Танка,[52][53] вместе с угрозой японского проекта 5-го поколения привели к возобновлению интереса и заявок.

Институциональные факторы

Другой фактор - место ИИ в организации университетов. Исследования ИИ часто принимают форму междисциплинарные исследования. Следовательно, ИИ подвержен тем же проблемам, с которыми сталкиваются другие типы междисциплинарных исследований. Финансирование направляется через существующие отделы, и во время урезания бюджета будет тенденция скрывать «основное содержание» каждого отдела за счет междисциплинарных и менее традиционных исследовательских проектов.

Экономические факторы

Спад в национальной экономике страны приводит к сокращению бюджета университетов. Тенденция «основного содержания» ухудшает влияние на исследования ИИ, и инвесторы на рынке, вероятно, вкладывают свои деньги в менее рискованные предприятия во время кризиса. Вместе это может превратить экономический спад в зиму искусственного интеллекта. Стоит отметить, что отчет Lighthill появился во время экономического кризиса в Великобритании.[54] когда университеты были вынуждены урезать, и вопрос был только в том, какие программы следует принять.

Недостаточные вычислительные возможности

В начале истории вычислительной техники потенциал нейронных сетей понимался, но так и не был реализован. Довольно простые сети требуют значительных вычислительных мощностей даже по сегодняшним стандартам.

Пустой трубопровод

Принято рассматривать взаимосвязь между фундаментальными исследованиями и технологиями как конвейер. Достижения в фундаментальных исследованиях приводят к успехам в прикладных исследованиях, которые, в свою очередь, приводят к новым коммерческим приложениям. Исходя из этого, часто утверждают, что отсутствие фундаментальных исследований приведет к падению рыночных технологий через несколько лет. Эту точку зрения высказал Джеймс Хендлер в 2008 г.[29] когда он утверждал, что падение экспертных систем в конце 80-х произошло не из-за неотъемлемой и неизбежной хрупкости экспертных систем, а из-за сокращения финансирования фундаментальных исследований в 1970-х. Эти экспертные системы развивались в 1980-х годах благодаря прикладным исследованиям и разработке продуктов, но к концу десятилетия трубопровод иссяк, и экспертные системы были неспособны производить улучшения, которые могли бы преодолеть эту хрупкость и обеспечить дальнейшее финансирование.

Неспособность адаптироваться

Падение рынка машин LISP и крах компьютеров пятого поколения были случаями, когда дорогие передовые продукты были вытеснены более простыми и дешевыми альтернативами. Это подходит под определение low-end прорывные технологии, при этом производители LISP-машин находятся в маргинальном положении. Экспертные системы были перенесены на новые настольные компьютеры, например, КЛИПЫ, поэтому падение рынка LISP-машин и падение экспертных систем, строго говоря, являются двумя отдельными событиями. Тем не менее, неспособность адаптироваться к таким изменениям во внешней вычислительной среде упоминается как одна из причин зимы 80-х, связанной с искусственным интеллектом.[29]

Аргументы и дебаты о прошлом и будущем ИИ

Несколько философов, когнитивистов и компьютерных ученых размышляли о том, где ИИ мог потерпеть неудачу и что ждет его в будущем. Хуберт Дрейфус выделил ошибочные предположения исследований ИИ в прошлом и еще в 1966 году правильно предсказал, что первая волна исследований искусственного интеллекта не сможет выполнить те самые публичные обещания, которые она давала. Другим критикам нравится Ноам Хомский утверждали, что ИИ движется в неправильном направлении, отчасти из-за его сильной зависимости от статистических методов.[55] Комментарии Хомского вписываются в более широкую дискуссию с Питер Норвиг, сосредоточена вокруг роли статистических методов в ИИ. Обмен между ними начался с комментариев, сделанных Хомским на симпозиуме в MIT.[56] на что Норвиг написал ответ.[57]

Смотрите также

Примечания

  1. ^ Информационный бюллетень AI Expert: W - зима В архиве 9 ноября 2013 г. Wayback Machine
  2. ^ а б c d Crevier 1993, п. 203.
  3. ^ а б Создатели мозга: гений, эгоизм и жадность в поисках машин, которые думают. Нью-Йорк: Macmillan / SAMS. 1994 г. ISBN  978-0-9885937-1-8.
  4. ^ а б Курцвейл 2005, п. 263.
  5. ^ а б Курцвейл 2005, п. 264.
  6. ^ В разных источниках используются разные даты зимы AI. Учтите: (1) Хау 1994: «Отчет Лайтхилла [1973] спровоцировал массовую потерю доверия к ИИ академическим истеблишментом в Великобритании (и, в меньшей степени, в США). Он сохранялся в течение десятилетия - так называемая« Зима ИИ », (2) Рассел и Норвиг, 2003 г., п. 24: «В целом индустрия искусственного интеллекта выросла с нескольких миллионов долларов в 1980 году до миллиардов долларов в 1988 году. Вскоре после этого наступил период, названный« AI Winter ».
  7. ^ а б Джон Хатчинс 2005 Кратко об истории машинного перевода.
  8. ^ Хатчинс, Джон. 1995. «Виски был невидим», или Устойчивые мифы МТ. Извлекаются из http://www.hutchinsweb.me.uk/MTNI-11-1995.pdf
  9. ^ Рассел и Норвиг, 2003 г., п. 21.
  10. ^ МакКордак 2004, стр. 52–107
  11. ^ Памела МакКордак цитирует одного коллегу: «Он был мечтой пресс-агента, настоящим знахаром». (МакКордак 2004, п. 105)
  12. ^ а б Crevier 1993, стр. 102–5
  13. ^ Crevier 1993, стр. 102–105, МакКордак 2004, стр. 104–107, Рассел и Норвиг, 2003 г., п. 22
  14. ^ Crevier 1993, стр. 214–6 и Рассел и Норвиг, 2003 г., п. 25
  15. ^ а б Crevier 1993, п. 117, Рассел и Норвиг, 2003 г., п. 22, Хау 1994 и смотрите также Лайтхилл 1973
  16. ^ "Дебаты BBC Controversy Lighthill 1973". Серия дебатов BBC "Противоречие". ИСКУССТВЕННЫЕ_ИНТЕЛЛЕКТУАЛЬНЫЕ ПРИЛОЖЕНИЯ ¯ ИНСТИТУТ. 1973 г.. Получено 13 августа 2010.
  17. ^ Маккарти, Джон (1993). "Обзор отчета Лайтхилла". В архиве из оригинала 30 сентября 2008 г.. Получено 10 сентября 2008.
  18. ^ Crevier 1993, п. 65
  19. ^ а б NRC 1999 в разделе «Переход к прикладным исследованиям увеличивает инвестиции» (только разделы перед 1980 применимо к текущему обсуждению).
  20. ^ Crevier 1993, п. 115
  21. ^ Crevier 1993, п. 117
  22. ^ Рассел и Норвиг, 2003 г., п. 25
  23. ^ NRC 1999
  24. ^ Crevier 1993, стр. 115–116 (на ком основан этот аккаунт). Другие виды включают МакКордак 2004, стр. 306–313 и NRC 1999 в разделе «Успех в распознавании речи».
  25. ^ NRC 1999 в разделе «Успех в распознавании речи».
  26. ^ Ньюквист 1994, стр. 189-201
  27. ^ Crevier 1993, стр. 161–2, 197–203
  28. ^ Брукс, Родни. «Разработка оптимизирующего компилятора с динамической перенацеливанием для общего LISP» (PDF). Lucid, Inc. Архивировано с оригинал (PDF) 20 августа 2013 г.
  29. ^ а б c Как избежать еще одной зимы искусственного интеллекта, Джеймс Хендлер, Интеллектуальные системы IEEE (март / апрель 2008 г. (том 23, № 2), стр. 2–4).
  30. ^ Crevier 1993, стр. 209–210
  31. ^ Ньюквист 1994, п. 296
  32. ^ Crevier 1993, стр. 204–208
  33. ^ Ньюквист 1994, стр. 431-434
  34. ^ Crevier 1993, стр. 211–212
  35. ^ МакКордак 2004, стр. 426–429
  36. ^ МакКордак 2004, стр. 430–431
  37. ^ Алекс Кастро в Вы говорите со мной? The Economist Technology Quarterly (7 июня 2007 г.) В архиве 13 июня 2008 г. Wayback Machine
  38. ^ Робототехнические компании испытывают трудности с привлечением средств, а венчурный капитал стесняется. Пэтти Таскарелла. Pittsburgh Business Times (11 августа 2006 г.) В архиве 26 марта 2014 г. Wayback Machine
  39. ^ а б Марков, Джон (14 октября 2005 г.). «За искусственным интеллектом стоит эскадрилья ярких реальных людей». Нью-Йорк Таймс. Получено 30 июля 2007.
  40. ^ Ньюквист 1994, п. 423
  41. ^ NRC 1999 в разделе «Искусственный интеллект в 90-е годы»
  42. ^ ИИ должен превзойти возможности человеческого мозга CNN.com (26 июля 2006 г.) В архиве 3 ноября 2006 г. Wayback Machine
  43. ^ Рассел и Норвиг, 2003 г., п. 28
  44. ^ Информацию о новейших достижениях в распознавании речи на основе ИИ см. Ты разговариваешь со мной? В архиве 13 июня 2008 г. Wayback Machine
  45. ^ а б «Системы на основе искусственного интеллекта уже стали неотъемлемой частью многих повседневных технологий, таких как поисковые системы в Интернете, банковское программное обеспечение для обработки транзакций и медицинской диагностики». Ник Бостром, ИИ должен превзойти возможности человеческого мозга CNN.com (26 июля 2006 г.) В архиве 3 ноября 2006 г. Wayback Machine
  46. ^ Для использования AI в Google см. Человек Google за занавеской, Google поддерживает распознавание символов и Слежка за интеллектуальной поисковой системой.
  47. ^ Краткосрочная пресса Touareg Введение, Фольксваген Америки В архиве 16 февраля 2012 г. Wayback Machine
  48. ^ Главная страница Grand Challenge В архиве 24 декабря 2010 г. Wayback Machine
  49. ^ DARPA В архиве 6 марта 2009 г. Wayback Machine
  50. ^ Информационные и коммуникационные технологии в FP7[постоянная мертвая ссылка ], обзорный документ по финансированию Европейского Союза. Проверено 20 сентября 2007 года.
  51. ^ Ньюквист, HP (2018). Создатели мозга, второе издание. Нью-Йорк, Нью-Йорк: Группа ретрансляторов. п. 491.
  52. ^ Хопфилд, JJ; Танк, DW (июль 1985 г.). ""Нейронное «вычисление решений в задачах оптимизации». 52. Биологическая кибернетика.
  53. ^ Хопфилд, JJ; Танк, DW (август 1986). «Вычисления с нейронными сетями». 233 (4764). Наука.
  54. ^ https://www.theguardian.com/obituaries/story/0,,2122424,00.html некролог Дональда Мичи в The Guardian В архиве 27 января 2008 г. Wayback Machine
  55. ^ Ярден Кац, «Ноам Хомски о том, где искусственный интеллект пошел не так», The Atlantic, 1 ноября 2012 г. В архиве 3 ноября 2012 г. Wayback Machine
  56. ^ Ноам Хомский, «Вопросы и ответы Пинкера / Хомского из MIT150 Panel» В архиве 17 мая 2013 г. Wayback Machine
  57. ^ Питер Норвиг, «О Хомском и двух культурах статистического обучения» В архиве 27 мая 2011 г. Wayback Machine

Рекомендации

дальнейшее чтение

  • Маркус, Гэри, «Я человек ?: Исследователям нужны новые способы отличить искусственный интеллект от естественного», Scientific American, т. 316, нет. 3 (март 2017 г.), стр. 58–63. Несколько тесты искусственный интеллект эффективности необходимы потому, что «так же, как не существует единого теста на Спортивное доблести, не может быть единственной окончательной проверки интеллект «Один из таких тестов,« Строительный вызов », будет проверять восприятие и физическое действие -« два важных элемента разумного поведения, которые полностью отсутствовали в оригинале ». Тест Тьюринга «Еще одно предложение заключалось в том, чтобы дать машинам те же стандартизированные тесты по науке и другим дисциплинам, что и школьники. Пока что непреодолимым камнем преткновения для искусственного интеллекта является неспособность устранение неоднозначности. "[V] Практически каждое предложение [которое создают люди] двусмысленный, часто по-разному ». Яркий пример известен как« проблема устранения неоднозначности местоимений »: у машины нет способа определить, кому или что местоимение в предложении - например, «он», «она» или «оно» - отсылает.
  • Люк Мюльхаузер (сентябрь 2016 г.). «Что мы должны узнать из прошлых прогнозов AI?». Открыть проект благотворительности.

внешняя ссылка