deep-econom (deep_econom) wrote,
deep-econom
deep_econom

Categories:

Состояние ИИ на заре 2021 года

State of AI at the dawn of 2021
A critical review
Authors: Patrick Hammer, Tony Lofthouse
http://www.opennars.org/blog/post1.html

===гугл-перевод===

Состояние ИИ на заре 2021 года
Критический обзор
Авторы: Патрик Хаммер, Тони Лофтхаус
Опубликовано: 3 января 2021 г.

По состоянию на 3 января 2021 года общедоступных персональных помощников на основе ИИ, которые могли бы запоминать и анализировать произвольную информацию в различных контекстах, не существует. Кроме того, несмотря на весь прогресс в машинном обучении, не существует широко используемых автономных агентов, которые могли бы обобщать домены без участия человека в цикле для обслуживания набора данных и переобучения модели между развертываниями.

Если цель ИИ — создать оптимизированную функцию для решения проблемы в конкретной области, то мы делаем хорошие успехи. Оптимизация, в частности обратное распространение с помощью глубоких нейронных сетей (DL), оказалась лучше, чем ручная работа для многих конкретных проблем, которые считались сложными [1] [6] [11]. Это оказалось верным для компьютерного зрения, языкового перевода, распознавания речи, настольных игр, компьютерных игр и многого другого. Это привело к быстрому глобальному внедрению этого подхода.

(продолжение)

Общим для всех этих проблем является то, что после развертывания модели обучение не требуется. Однако обучение во время выполнения — это способность, которая дает разумным животным ключевое преимущество в выживании. Что сделало машинное обучение таким успешным, так это более узкое представление об обучении. То есть решение задачи автономной оптимизации, которая в природе решается эволюцией, а не интеллектом отдельных людей. Пример: найти такой генетический код, чтобы светлячок не только с высокой точностью определял виды добычи, необходимые для его выживания, но и успешно ловил ее. Здесь самому светлячку не нужно учиться во время выполнения. То же самое верно и для автономных автомобилей, которые, как ожидается, смогут двигаться сразу же, с предварительно подключенными компонентами для навигации, локализации, обнаружения объектов и т. д.

Ключевая задача, которую ИИ еще не удалось убедительно решить, — перейти от автономной оптимизации к быстрому и надежному обучению во время выполнения. Это не только основная роль интеллекта в природе, но и первоначальная цель ИИ. Предполагается, что AGI, подобно животному в дикой природе, может во время работы справляться с непредвиденными обстоятельствами. Способность быстро и надежно адаптироваться не только будет способствовать развитию следующего поколения роботов-исследователей и персональных помощников, но также может рассматриваться как ключевой аспект интеллекта. Интеллект — термин, имеющий множество значений.

В томе 10 (2019 г.) журнала Journal of Artificial General Intelligence (JAGI) была опубликована статья [7] «Об определении искусственного интеллекта» доктора Пей Ванга. Эта статья JAGI считается одной из самых сильных попыток с самого начала решить проблему давнего отсутствия консенсуса в отношении того, как определить область и тему искусственного интеллекта (ИИ). В процессе проверки приняли участие 110 ведущих специалистов по искусственному интеллекту, в том числе исследователи из DeepMind и Google Brain [8]. Суть статьи сосредоточена вокруг авторского определения самого интеллекта: «Сущность интеллекта заключается в принципе приспособления к окружающей среде при работе с недостаточными знаниями и ресурсами».. Хотя его определение было наиболее согласованным в соответствующем опросе AGISI (с 567 участниками), в некоторых ответах выражалось несогласие с ограниченностью ресурсов и необходимостью адаптации в режиме реального времени. Некоторые из этих разногласий связаны с различием между искусственными и биологическими системами, последние из которых эволюционировали, чтобы адаптироваться в условиях недостатка знаний и ресурсов [10], в то время как многие системы ИИ не оснащены способностью адаптироваться после развертывания.

Несколько неправильных представлений о природе интеллекта возникают из-за того, что обучение во время выполнения не учитывается. Например, генетические алгоритмы (ГА, [5]) иногда продаются как альтернатива обучению с подкреплением (RL, [12]). Принимая во внимание предыдущие рассуждения, становится ясно, что GA относится к RL, как эволюция относится к интеллекту. Они принципиально отличаются друг от друга, поскольку перекрытие происходит только тогда, когда обучение происходит в симуляции с несколькими поколениями, созданной для произвольного числа поколений. Это свойство инстанцирования не относится к автономным роботам или животным, если на то пошло, и те, и другие должны быть в состоянии адаптироваться к непредвиденным обстоятельствам как можно быстрее и в течение одной жизни. Ясно, что они не могут продолжать обучение после того, как будет предпринято какое-либо фатальное действие. Эти аспекты являются значительной частью причины, по которой большие успехи в областях с идеальной доступностью моделирования (например, [11]) не трансформировались в успехи в реальных областях. Для этого автономная оптимизация всегда будет ограничивать по сравнению с системой, способной адаптироваться в режиме реального времени.

С точки зрения машинного обучения это создает несколько проблем:
Агент должен иметь возможность работать с динамическими (нестационарными!) средами.
Должна быть найдена правильная теория принятия решений, которая для животных была достигнута эволюцией. Этому нельзя научиться за время жизни одного агента. Это должно быть врожденным, тогда как проявляемое поведение будет сочетанием природы и воспитания.
Одной из наиболее успешных теорий принятия решений является обучение с подкреплением (RL, [12]). Несмотря на то, что он борется с нестационарными средами (снижение скорости обучения нельзя использовать, если агент должен по-прежнему иметь возможность адаптироваться!), его, по крайней мере, можно использовать для обучения в реальном времени. Однако у него есть некоторые серьезные концептуальные ограничения, давайте рассмотрим наиболее распространенную форму RL, основанную на бихевиоризме. Речь идет об изучении отображения состояния-действия (политики) с наивысшим ожидаемым вознаграждением без какого-либо моделирования других причинно-следственных связей, встречающихся в окружающей среде. У такого агента мировоззрение, ориентированное на вознаграждение. Это означает, что когда функция полезности (которая генерирует вознаграждение) изменяется, агент должен заново изучить правильную политику. Его знания не будут переноситься на новую задачу по замыслу. В то время как изменение функции полезности не является проблемой в компьютерных играх с единственным критерием успеха (время круга в гонках, мат в шахматах и ​​т. д.), для биологических систем это повседневная реальность. Голодное животное ведет себя принципиально иначе, чем жаждущее. Один будет искать добычу или вкусные листья, а другой – источники воды. В этом случае поведение зависит не только от внешних факторов, но и от внутренних потребностей. Причинное знание, полученное при удовлетворении определенных потребностей, автоматически переносится на более позднее время, когда другие потребности будут активны. Это заставляет такого агента мгновенно реагировать на изменяющиеся потребности по замыслу. Решение заключается в отделении убеждений от целей. Это позволяет агенту изучать последствия своих действий в различных контекстах (каузальное моделирование), который не зависит от того, какие последствия в настоящее время нуждаются в достижении. Этот подход используется многими в области ОИИ, которая преследует первоначальную цель ИИ, но обычно не используется в подобластях ИИ, основное внимание в которых уделяется успехам в отдельных областях.

Это подводит нас к следующему вопросу: измерение. Измерение является ключом к определению прогресса, но то, что мы измеряем, имеет значение. Если мы измерим производительность агента для каждого домена отдельно и позволим изменять гиперпараметры между доменами, мы получим специальные оценки для разных агентов. Это полезно с точки зрения приложения, но ничего не говорит нам об универсальности отдельного агента. Если, с другой стороны, изменения гиперпараметров между доменами не разрешены, меры покажут оценки по доменам, в которых был опробован агент. Это можно свести к единой общей оценке. В настоящее время вы обнаружите, что агент с лучшими показателями общего назначения часто не может конкурировать с агентами специального назначения (теми, гиперпараметры которых разрешено корректировать для одного предполагаемого домена). Агенты с лучшими показателями специального назначения не достигнут высоких показателей общего назначения. Природа столкнулась с подобными компромиссами (как мы видим на рис. 1), универсальность облегчает адаптацию к исключительным условиям окружающей среды, хотя для конкретной стационарной среды часто предпочтительнее особое решение.


Высокоспециализированное насекомое Очень общее насекомое
Рис. 1. Специализация и универсальность (Фото: Люк Виатур и Getty Images)


Эти наблюдения имеют несколько следствий:
Измерение прогресса в направлении ОИИ требует изменения способа оценки успеха.
AGI не будет надмножеством ИИ. Что касается оценки в одной области, агент специального назначения, как правило, является лучшим решением, но он хуже адаптируется к другим областям.
Возможности специального назначения часто, хотя и не всегда, не имеют значения для прогресса ОИИ.
Мы написали эту статью с целью проинформировать читателя о многих проблемах и заблуждениях, которые сдерживают развитие ИИ общего назначения. Стремление к краткосрочным результатам, ориентированным на приложения, не должно мешать более широкой картине. Нам нужно глубоко подумать и устранить препятствия на пути создания систем, которые могут понимать то, что они воспринимают, и адаптироваться к меняющимся обстоятельствам в режиме реального времени.

Проектировать системы с такими возможностями сложно, и мы все еще находимся в самом начале этого рубежа. Такие системы, как неаксиоматическая система рассуждений [9], предложенная доктором Пей Ваном, которая может адаптировать и моделировать аспекты своей среды на основе восприятий, осуществлять поведение и достигать своих целей посредством рассуждений. Проект NARS осуществляется уже более 30 лет, и прогресс в важнейших областях обучения во время выполнения, рассуждений и достижения цели был значительным. Наш последний успех заключается в объединении глубокой нейронной сети (YOLOv4 [1] [6]) для визуального восприятия с возможностями обучения и рассуждения NARS в реальном времени (через «OpenNARS для приложений» [4] [13]) в роботизированная миссия по сбору бутылок (см. рис. 2).

Робот ищет бутылку Робот собирает бутылку
Робот взял бутылку Робот доставляет бутылку
Рис. 2: Миссия по сбору бутылок с помощью рассуждений и обучения в режиме реального времени на основе NARS
Воспроизвести видео: [Миссия по сбору бутылок] [Обновление Grab&Lift]


В этом примере требуется, чтобы робот собирал бутылку, находя и поднимая ее, учась исследовать ее, избегая при этом объектов на своем пути. Это отражает сильные стороны того, что обычно охватывалось отдельно обучением с подкреплением (а именно, способностью учиться во время выполнения [12]) и практическим мышлением (гибкость за счет планирования целей и использования фоновых знаний [2]). В примере используются современные модели глубокого обучения для обнаружения объектов — задача, с которой, несомненно, хорошо справляется DL. Сочетание сильных сторон существующего машинного обучения для автономной оптимизации и интеллектуальных систем, таких как NARS для обучения и рассуждений во время выполнения, — это один из способов сделать системы AGI, подобные нашей, реальностью с помощью технологий, доступных прямо сейчас. Ожидается, что наш ОИИ значительно улучшит автономию интеллектуальных агентов, в том числе:
Спасательные роботы
Роботы-исследователи
Персональные помощники на смартфонах и ПК
Возможности развертывания AGI ограничены только нашим воображением, будь то новые типы автономных агентов или еще немыслимые приложения. В заключение, обучение во время выполнения является критически важной возможностью для AGI. Тем не менее, ИИ-решения, оптимизированные в автономном режиме, могут быть отличным инструментом для использования в системе, например, в NARS общего назначения. Решение, которое следует этому шаблону, может учиться на богатом мультимодальном входе во время выполнения и способно обобщать все домены. Такая система способна быстро приспосабливаться к изменяющимся обстоятельствам и является разумной в прямом смысле этого слова.

Основные выводы из этой статьи:
У AGI иная цель, чем у узкого ИИ — общность против специфичности
Для измерения прогресса в области искусственного интеллекта и искусственного интеллекта требуются разные показатели.
Адаптация во время выполнения является необходимым требованием интеллектуальных систем.
Резонеры общего назначения, такие как NARS, — это один из путей к созданию действительно интеллектуальных систем.
Нас ждет захватывающий год, когда мы медленно, но постепенно вступаем в эпоху ОИИ.
===
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 1 comment