Интеллектуальный агент - Intelligent agent

В искусственный интеллект, интеллектуальный агент (Я) относится к автономный субъект, который действует, направляя свою деятельность на достижение целей (т.е. агент ), по среда с использованием наблюдения с помощью датчиков и соответствующих исполнительных механизмов (т.е. это интеллектуально).[1] Интеллектуальные агенты также могут учиться или используйте знание для достижения своих целей. Они могут быть очень простыми или очень сложный. Рефлекторная машина, такая как термостат, считается примером интеллектуального агента.[2]

Простой рефлекторный агент

Интеллектуальные агенты часто схематически описываются как абстрактная функциональная система, подобная компьютерной программе. Такие исследователи, как Рассел и Норвиг (2003) считать целенаправленное поведение сущностью интеллекта; нормативный агент может быть обозначен термином, заимствованным из экономика, "рациональный агент ". В этой парадигме рационального действия ИИ обладает внутренней" моделью "своего окружения. Эта модель инкапсулирует все представления агента о мире. У агента также есть" целевая функция ", которая включает в себя все цели ИИ. Такая модель агент предназначен для создания и выполнения любого плана, который по завершении максимизирует ожидаемое значение целевой функции.[3] А обучение с подкреплением агент может иметь «функцию вознаграждения», которая позволяет программистам формировать желаемое поведение ИИ,[4] и эволюционный алгоритм Поведение человека формируется «функцией приспособленности».[5] Абстрактные описания интеллектуальных агентов иногда называют абстрактные интеллектуальные агенты (AIA), чтобы отличать их от их реализаций в реальном мире в виде компьютерных систем, биологических систем или организаций. Немного автономные интеллектуальные агенты предназначены для работы без вмешательства человека. По мере того как интеллектуальные агенты становятся все более популярными, возрастают правовые риски.[6]:815

Интеллектуальные агенты в искусственном интеллекте тесно связаны с агенты в экономика, а варианты парадигмы интеллектуального агента изучаются в наука о мышлении, этика, философия практическая причина, а также во многих междисциплинарный социально-когнитивный моделирование и компьютер социальные симуляции.

Интеллектуальные агенты также тесно связаны с программные агенты (автономная компьютерная программа, выполняющая задачи от имени пользователей). В Информатика, интеллектуальный агент представляет собой программный агент, который имеет некоторый интеллект, например, автономные программы, используемые для помощи оператору или сбор данных (иногда называют боты ) также называются «интеллектуальными агентами».[нужна цитата ]

Определения и характеристики

По словам Николы Касабова (1998),[7] Системы внутреннего аудита должны обладать следующими характеристиками:

  • Размещение новых решение проблем правила постепенно
  • Адаптировать онлайн И в реальное время
  • Умеют анализировать самих себя с точки зрения поведения, ошибок и успеха.
  • Учиться и совершенствоваться через взаимодействие с окружающей средой (воплощение )
  • Быстро учиться на большом количестве данные
  • Имейте образец на основе памяти место хранения и поисковые возможности
  • Иметь параметры для представления кратковременной и долговременной памяти, возраста, забывания и т. д.

Пэдхэм и Виникофф (2005) соглашаются, что интеллектуальный агент находится в среде и реагирует (своевременно, хотя и не обязательно в реальном времени) на изменения среды. Однако интеллектуальные агенты также должны активно и гибко преследовать цели.[а] Необязательные требования включают, чтобы агент был рациональный, и что агент способен вера-желание-намерение анализ.[8] Некоторые определения 20-го века характеризуют агента как программу, которая помогает пользователю или действует от имени пользователя.[9] Влиятельные AIMA (2009) определяет агента как «все, что можно рассматривать как воспринимающее окружающую среду с помощью датчиков и действующее на эту среду с помощью исполнительных механизмов», и характеризует интеллект как способность успешно действовать в соответствии с определенными идеальными стандартами рациональности.[10][11]

«Интеллектуальный агент» также часто используется как расплывчатый маркетинговый термин, иногда синоним «виртуальный личный помощник ".[12]

Целевая функция

Некоторым агентам можно назначить явную «целевую функцию»; агент считается более умным, если он последовательно предпринимает действия, которые успешно максимизируют его запрограммированную целевую функцию. «Целевая функция» включает в себя все цели, ради достижения которых агент стремится действовать; в случае рациональных агентов функция также включает приемлемые компромиссы между достижением конфликтующих целей. (Терминология варьируется; например, некоторые агенты стремятся максимизировать или минимизировать "вспомогательная функция "," целевая функция "или"функция потерь ".)[10][11] Теоретические и невычислимый AIXI дизайн - максимально интеллектуальный агент в этой парадигме;[13] однако в реальном мире искусственный интеллект ограничен ограниченными временными и аппаратными ресурсами, и ученые соревнуются в создании алгоритмов, которые могут достигать все более высоких результатов в тестах производительности с реальным оборудованием.[14]

Системы, которые традиционно не считаются агентами, такие как системы представления знаний, иногда включаются в парадигму, представляя их как агентов, которые имеют целью (например) как можно точнее отвечать на вопросы; понятие «действие» здесь расширено и включает в себя «действие» ответа на вопрос. В качестве дополнительного расширения системы, управляемые мимикрией, могут быть представлены как агенты, оптимизирующие «целевую функцию» в зависимости от того, насколько точно ИИ преуспевает в подражании желаемому поведению.[10][11] в генеративные состязательные сети 2010-х годов компонент «кодировщик» / «генератор» пытается имитировать и импровизировать композицию человеческого текста. Генератор пытается максимизировать функцию, инкапсулирующую, насколько хорошо он может обмануть антагонистический компонент «предсказатель» / «дискриминатор».[15]

Пока ГОФАИ системы часто принимают явную целевую функцию, парадигма также может применяться к нейронные сети и чтобы эволюционные вычисления. Обучение с подкреплением могут генерировать интеллектуальных агентов, которые действуют таким образом, чтобы максимизировать «функцию вознаграждения».[16] Иногда вместо того, чтобы устанавливать функцию вознаграждения, которая прямо равна желаемой функции оценки эталонного теста, программисты машинного обучения будут использовать формирование награды чтобы изначально дать машине вознаграждение за постепенный прогресс в обучении.[17] Янн ЛеКун заявил в 2018 году, что «большинство алгоритмов обучения, которые придумали люди, по сути состоят в минимизации некоторой целевой функции».[18] AlphaZero у шахмат была простая целевая функция; каждая победа засчитывается как +1 очко, а каждое поражение засчитывается как -1 очко. Целевая функция для беспилотного автомобиля должна быть более сложной.[19] Эволюционные вычисления могут развить интеллектуальных агентов, которые, по-видимому, действуют таким образом, чтобы максимизировать «функцию приспособленности», которая влияет на то, сколько потомков каждому агенту разрешено покинуть.[20]

Состав агентов

Математически простую программу агента можно определить как функция f (так называемая "функция агента")[21] который отображает все возможные восприятия последовательность возможного действия, которое может выполнить агент, или коэффициента, элемента обратной связи, функции или константы, которые влияют на возможные действия:

Функция агента - это абстрактное понятие, поскольку оно может включать в себя различные принципы принятия решений, такие как расчет полезность индивидуальных вариантов, вычет над логическими правилами, нечеткая логика, так далее.[22]

В программный агент вместо этого сопоставляет каждое возможное восприятие действию.[23]

Мы используем термин «восприятие» для обозначения восприятия, поступающего от агента в любой данный момент. На следующих рисунках агент - это все, что можно рассматривать как воспринимающее среду с помощью датчиков и воздействующее на нее с помощью исполнительных механизмов.

Архитектура

Вайс (2013) определяет четыре класса агентов:

  • Агенты на основе логики - в которых решение о том, какое действие выполнить, принимается посредством логической дедукции;
  • Реактивные агенты - в которых принятие решений осуществляется в той или иной форме прямого отображения ситуации в действие;
  • Агенты убеждения-желания-намерения - в которых принятие решений зависит от манипулирования структурами данных, представляющими убеждения, желания и намерения агента; и наконец,
  • Многоуровневые архитектуры - в которых принятие решений осуществляется через различные программные уровни, каждый из которых более или менее явно рассуждает о среде на разных уровнях абстракции.

Как правило, агент может быть сконструирован путем разделения тела на датчики и исполнительные механизмы, чтобы он работал со сложной системой восприятия, которая принимает описание мира в качестве входных данных для контроллера и выдает команды исполнительному механизму. Однако иерархия уровней контроллеров часто необходима для уравновешивания немедленной реакции, желаемой для задач низкого уровня, и медленных рассуждений о сложных целях высокого уровня.[24]

Классы

Простой рефлекторный агент
Рефлекторный агент на основе модели
Агент на основе модели и цели
Агент на основе модели, на основе полезности
Агент общего обучения

Рассел и Норвиг (2003) сгруппируйте агентов в пять классов в зависимости от степени их предполагаемого интеллекта и способностей:[25]

  1. простые рефлекторные агенты
  2. модельные рефлекторные агенты
  3. целевые агенты
  4. служебные агенты
  5. агенты обучения

Простые рефлекторные агенты

Простые рефлекторные агенты действуют только на основе текущего восприятия, игнорируя остальную часть истории восприятия. Функция агента основана на правило условие-действие: "если условие, то действие".

Эта функция агента выполняется успешно только тогда, когда среда полностью наблюдаема. Некоторые рефлекторные агенты также могут содержать информацию об их текущем состоянии, что позволяет им игнорировать состояния, исполнительные механизмы которых уже сработали.

Бесконечные петли часто неизбежны для простых рефлекторных агентов, работающих в частично наблюдаемой среде. Примечание: если агент может рандомизировать свои действия, возможно, удастся выйти из бесконечных циклов.

Рефлекторные агенты на основе моделей

Агент на основе модели может обрабатывать частично наблюдаемые среды. Его текущее состояние хранится внутри агента, поддерживающего некую структуру, описывающую ту часть мира, которую нельзя увидеть. Это знание о том, «как устроен мир», называется моделью мира, отсюда и название «агент на основе модели».

Рефлекторный агент, основанный на модели, должен поддерживать своего рода внутренняя модель это зависит от истории восприятия и тем самым отражает по крайней мере некоторые ненаблюдаемые аспекты текущего состояния. Историю восприятия и влияние действий на окружающую среду можно определить с помощью внутренней модели. Затем он выбирает действие так же, как рефлекторный агент.

Агент также может использовать модели для описания и прогнозирования поведения других агентов в окружающей среде.[26]

Целевые агенты

Агенты, основанные на целях, дополнительно расширяют возможности агентов на основе моделей, используя «целевую» информацию. Информация о цели описывает ситуации, которые желательны. Это позволяет агенту выбирать среди множества возможностей, выбирая ту, которая достигает целевого состояния. Поиск и планирование Подполя искусственного интеллекта, предназначенные для поиска последовательностей действий, которые достигают целей агента.

Коммунальные агенты

Агенты, основанные на целях, различают только целевые состояния и нецелевые состояния. Можно определить меру того, насколько желательно то или иное состояние. Эта мера может быть получена с помощью вспомогательная функция который отображает состояние в меру полезности состояния. Более общий показатель эффективности должен позволить сравнение различных состояний мира в зависимости от того, насколько счастливым они могут сделать агента. Термин «полезность» можно использовать для описания того, насколько «счастлив» агент.

Агент, основанный на рациональной полезности, выбирает действие, которое максимизирует ожидаемую полезность результатов действия, то есть то, что агент ожидает получить в среднем с учетом вероятностей и полезности каждого результата. Агент на основе утилит должен моделировать и отслеживать свою среду, задачи, которые потребовали большого количества исследований в области восприятия, представления, рассуждений и обучения.

Обучающие агенты

Преимущество обучения состоит в том, что оно позволяет агентам изначально работать в неизвестной среде и становиться более компетентными, чем могут позволить только их первоначальные знания. Наиболее важное различие заключается между «элементом обучения», который отвечает за внесение улучшений, и «элементом производительности», который отвечает за выбор внешних действий.

Элемент обучения использует обратную связь от «критика» о том, как работает агент, и определяет, как следует изменить элемент производительности, чтобы добиться лучших результатов в будущем. Элемент производительности - это то, что мы ранее считали всем агентом: он принимает во внимание воспринимает и решает действия.

Последний компонент обучающего агента - «генератор проблем». Он отвечает за предложения действий, которые приведут к новому и информативному опыту.

Иерархии агентов

Активно выполнять свои функции Сегодня интеллектуальные агенты обычно собираются в иерархическую структуру, содержащую множество «субагентов». Интеллектуальные субагенты обрабатывают и выполняют функции более низкого уровня. Взятые вместе, интеллектуальный агент и субагенты создают законченную систему, которая может выполнять сложные задачи или цели с помощью поведения и реакций, отображающих форму интеллекта.

Приложения

Пример автоматический онлайн-помощник предоставление автоматизированного обслуживания клиентов на веб-странице.

Интеллектуальные агенты применяются как автоматические онлайн-помощники, где они действуют, чтобы воспринимать потребности клиентов, чтобы выполнять индивидуальные обслуживание клиентов. Такой агент может в основном состоять из диалоговая система, аватар, а также экспертная система чтобы предоставить пользователю определенные знания.[27] Их также можно использовать для оптимизации координации групп людей в сети.[28]

Смотрите также

Примечания

  1. ^ Определение Падгхэма и Виникофф явно охватывает только социальных агентов, которые взаимодействуют с другими агентами.

Встроенные ссылки

  1. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли (2007-12-15). «Машинная этика: создание этического интеллектуального агента». Журнал AI. 28 (4): 15–15. Дои:10.1609 / aimag.v28i4.2065. ISSN  2371-9621.
  2. ^ Согласно определению, данному Рассел и Норвиг (2003 г., гл. 2)
  3. ^ Брингсйорд, Селмер и Говиндараджулу, Навин Сундар, «Искусственный интеллект», Стэнфордская энциклопедия философии (издание летом 2020 г.), Эдвард Н. Залта (ред.), URL = https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/.
  4. ^ Вулховер, Натали (30 января 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема». Журнал Quanta. Получено 21 июн 2020.
  5. ^ Бык, Ларри. «Об эволюционных расчетах на основе моделей». Soft Computing 3, вып. 2 (1999): 76-82.
  6. ^ Ван Лоо, Рори (2019-03-01). «Совершенство цифрового рынка». Обзор закона штата Мичиган. 117 (5): 815.
  7. ^ Касабов 1998
  8. ^ Лин Пэгэм и Майкл Виникофф. Разработка систем интеллектуальных агентов: Практическое руководство. Vol. 13. Джон Вили и сыновья, 2005.
  9. ^ Бургин, Марк и Гордана Додиг-Црнкович. «Системный подход к искусственным агентам». Препринт arXiv arXiv: 0902.3513 (2009).
  10. ^ а б c Рассел и Норвиг (2003)
  11. ^ а б c Брингсйорд, Селмер и Говиндараджулу, Навин Сундар, «Искусственный интеллект», Стэнфордская энциклопедия философии (издание летом 2020 г.), Эдвард Н. Залта (ред.), Готовится к публикации URL = <https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/ >.
  12. ^ Фингарь, Питер (2018). «Конкуренция за будущее с умными агентами ... и признание». Сайты Forbes. Получено 18 июн 2020.
  13. ^ Адамс, Сэм; Арел, Итмар; Бах, Йоша; Куп, Роберт; Фурлан, Род; Герцель, Бен; Холл, Дж. Сторрс; Самсонович Алексей; Шойц, Матиас; Шлезингер, Мэтью; Шапиро, Стюарт К.; Сова, Джон (15 марта 2012 г.). «Составление карты общего искусственного интеллекта на уровне человека». Журнал AI. 33 (1): 25. Дои:10.1609 / aimag.v33i1.2322.
  14. ^ Хатсон, Мэтью (27 мая 2020 г.). «Яркие достижения в некоторых областях искусственного интеллекта нереальны». Наука | AAAS. Получено 18 июн 2020.
  15. ^ «Генеративные состязательные сети: что такое GAN и как они развивались». VentureBeat. 26 декабря 2019 г.. Получено 18 июн 2020.
  16. ^ Вулховер, Натали (январь 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема». Журнал Quanta. Получено 18 июн 2020.
  17. ^ Эндрю Й. Нг, Дайши Харада и Стюарт Рассел. «Политическая инвариантность при трансформации вознаграждения: теория и применение к формированию вознаграждения». В ICML, т. 99, стр. 278-287. 1999 г.
  18. ^ Мартин Форд. Архитекторы интеллекта: правда об искусственном интеллекте от создателей его. Packt Publishing Ltd, 2018.
  19. ^ «Почему у искусственного интеллекта AlphaZero проблемы с реальным миром». Журнал Quanta. 2018. Получено 18 июн 2020.
  20. ^ Бык, Ларри. «Об эволюционных расчетах на основе моделей». Soft Computing 3, вып. 2 (1999): 76-82.
  21. ^ Рассел и Норвиг, 2003 г., п. 33
  22. ^ Саламон, Томас (2011). Дизайн агент-ориентированных моделей. Репин: Издательство Брукнера. С. 42–59. ISBN  978-80-904661-1-1.
  23. ^ Нильссон, Нильс Дж. (Апрель 1996 г.). «Искусственный интеллект: современный подход». Искусственный интеллект. 82 (1–2): 369–380. Дои:10.1016/0004-3702(96)00007-0. ISSN  0004-3702.
  24. ^ Пул, Дэвид; Макворт, Алан. «1.3 Агенты, расположенные в средах‣ Глава 2 Архитектура агентов и иерархическое управление‣ Искусственный интеллект: основы вычислительных агентов, 2-е издание». artint.info. Получено 28 ноября 2018.
  25. ^ Рассел и Норвиг, 2003 г., стр. 46–54
  26. ^ Стефано Альбрехт и Питер Стоун (2018). Автономные агенты, моделирующие других агентов: всесторонний обзор и открытые проблемы // Искусственный интеллект. 258. С. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
  27. ^ Предоставление языкового инструктора помощника по искусственному интеллекту. Кшиштоф Пьетрошек. Международный журнал новейших технологий обучения (iJET), Том 2, № 4 (2007) [1] «Архивная копия». Архивировано из оригинал на 2012-03-07. Получено 2012-01-29.CS1 maint: заархивированная копия как заголовок (связь)
  28. ^ Ширадо, Хирокадзу; Кристакис, Николас А (2017). «Локально зашумленные автономные агенты улучшают глобальную координацию человека в сетевых экспериментах». Природа. 545 (7654): 370–374. Bibcode:2017Натура.545..370С. Дои:10.1038 / природа22332. ЧВК  5912653. PMID  28516927.

Другие ссылки

внешняя ссылка