deep-econom (deep_econom) wrote,
deep-econom
deep_econom

Categories:

дискуссия об ИИ (искусственный интеллект) 1

дискуссия об ИИ (искусственный интеллект)


alexcommo
24 июн, 2017 17:26 (местное)
Есть вопросы, на которые научный метод не может ответить в принципе. Научный метод основан на том, чтобы выискивать в природе повторяемое и проверяемое, такое, которое будет работать надёжно не зависимо от чьих-то желаний и намерений - объективное, и на основе этого объективного что-то предсказывать, рассчитывать, использовать в технике. Но есть в природе неповторяемое, с этим научный метод не работает, это проявляется в проблемах с интерпретацией квантовой механики: научный метод позвояет рассчитать вероятность того или иного результата измерения, но на вопрос "каким будет результат в данном конкретном уникальном измерении?", квантовая механика ответить не может. Объяснения, почему это так и что с этим делать, т.е. интерпретации квантовой механики, с которой согласились бы хотя бы двадцать процентов физиков, до сих пор нет, и построение такой интерпретации в любом случае выйдет за рамки научного метода. Другая тема, к кторой всё больше интереса, но в которой научный метод тоже принципиально не работает - теория сознания. Её до сих пор нет, точнее их множество, так же как и интерпретаций квантовой механики, но все они далеки от широкого признания. Теория сознания по определению должна работать с субъективными явлениями, а научный метод с субъективным не работает, он принципиально создан для того, чтобы изгонять из исследований всё субъективное, чтобы научные результаты не зависели от фактора "я художник, я так вижу". Но поэтому при попытке научного метода объяснить сознание разваливается либо сознание, либо научный метод.
deep_econom
24 июн, 2017 21:02 (местное)
>>"Теория сознания по определению должна работать с субъективными явлениями, а научный метод с субъективным не работает, он принципиально создан для того, чтобы изгонять из исследований всё субъективное, чтобы научные результаты не зависели от фактора "я художник, я так вижу". Но поэтому при попытке научного метода объяснить сознание разваливается либо сознание, либо научный метод."

в моем блоге достаточно много описал про формализацию сознания, сознание как алгоритм, научный метод только помогал и не является помехой
alexcommo
25 июн, 2017 10:33 (местное)
Я разделяю сознание и интеллект, интеллект может быть и искусственным, и не сопровождаться сознанием, вся работа по обработке информации в нём будет проходить без ощущений, субъективного опыта. Тем не менее, для создания такого интеллекта научный метод – не помеха, а помощь. А вот создание машины с сознанием и ощущениями внутри, а не только (и не столько) с интеллектом потребует некоторых соображений, которые не впишутся в научный метод, хотя научный метод будет и здесь помощником, но он уже будет не единственным рабочим методом. Тут как минимум потребуется ещё один метод – интроспекция, чтобы изучать ощущения, которые мы хотим воспроизвести в машине. Наука не признаёт интроспекцию, её результаты могут быть не объективны, не воспроизводимы, на её результатах нельзя построить строгие доказательства. Но, тем не менее, ей тоже можно пользоваться, и получать какие-то результаты.
Паровая машина была сделана ещё до того, как под её работу подвели теоретическую базу, даже если бы впоследствии никакой теории работы паровой машины не появилась, то машина всё равно работала бы. Отсутствие строгого научного обоснования в области сознания – не препятствие для того, чтобы проводить эксперименты и чего-то достигать.
Несмотря на ограничения, которые имеет при работе с сознанием научный метод, по моему мнению, машина с ощущениями всё равно будет создана, а интеллект такой машины через какое-то время превзойдёт интеллект человека. Нейроны мозга – очень несовершенная и медленная элементная база, эволюция приспособила клетки для обработки информации, раз уж они были у неё под рукой.
Похоже, созданию этой машины с интеллектом выше человеческого (и, предположительно, с ощущениями) может помешать лишь ядерная война, метеорит или что-то в этом роде. Но даже когда эта машина будет уже уметь разговаривать и рассказывать про свои ощущения, научным методом невозможно будет строго доказать или опровергнуть, есть ли у неё сознание и ощущения на самом деле, или она лишь имитирует высказывания существа с ощущениями, но всё-таки ощущений не имеет.

*** сознание как алгоритм

Я согласился бы только с модифицированной формулировкой: сознание – алгоритм, который включает в себя не только классические причинно-следственные связи, но обязательно включает в себя и квантовые нелокальные связи. Но это лишь моё мнение. Не смотря на то, что я могу под эту формулировку подводить аргументы, все эти аргументы не будут строгим научным доказательством моего мнения. Но это касается любой другой формулировки и теории о том, что такое сознание.
deep_econom
25 июн, 2017 11:13 (местное)
>>А вот создание машины с сознанием и ощущениями внутри, а не только (и не столько) с интеллектом потребует некоторых соображений, которые не впишутся в научный метод, хотя научный метод будет и здесь помощником, но он уже будет не единственным рабочим методом.

вполне сознание алгоритмизируется, вполне согласуется с научными методами
будет ли научный метод единственным рабочим методом? имхо, будет, остальное маловероятно

более того, выдвину пару тезисов, полноценный сильный ИИ невозможен без сознания, сознание невозможно без ощущений

>>Я согласился бы только с модифицированной формулировкой: сознание – алгоритм, который включает в себя не только классические причинно-следственные связи, но обязательно включает в себя и квантовые нелокальные связи.

не требуется этого, достаточно обычной классической машины Тьюринга, которая по сути платформонезависима

>>Но даже когда эта машина будет уже уметь разговаривать и рассказывать про свои ощущения, научным методом невозможно будет строго доказать или опровергнуть, есть ли у неё сознание и ощущения на самом деле, или она лишь имитирует высказывания существа с ощущениями, но всё-таки ощущений не имеет.

думаю вполне возможно, нужна система тестов по типу тестов в этологии на наличие условных рефлексов, на обучаемость и т.п.
когда мы формулируем что такое сознание и каковы у него свойства, тогда и становится понятным какие тесты нужны
alexcommo
27 июн, 2017 11:21 (местное)
***полноценный сильный ИИ невозможен без сознания, сознание невозможно без ощущений

С этим я согласен.

*** будет ли научный метод единственным рабочим методом?

Я полагаю, придётся использовать и другой метод, считающийся ненучным - интроспекцию, чтобы разглядывать изнутри готовый образец того, что мы пытаемся повторить. На интроспекции не получится выстроить какие-то строгие выводы, но она может подкинуть некоторые полезные идеи, подсказки, направления исследований.

***система тестов

Если мы предложим искусственому интеллекту систему тестов, значит мы ожидаем от него таких-то и таких-то реакций. Но все эти реакции можно заложить в программму-имитацию интеллекта, и она пройдёт тест, если в тест добавить новые проверки, то и в бота можно будет опять заложить соответствующие реакции. Поэтому тесты не смогут отличить сильный ИИ с ощущениями и имитацию ИИ без ощущений.
alexcommo
27 июн, 2017 11:22 (местное)
***достаточно обычной классической машины Тьюринга

Меня бы устроил этот подход, если бы не одно обстоятельство. Я говорю о проблеме единства сознания, другое название - комбинационная проблема, проблема связывания сознания, проблема интеграции ощущений в единый поток ощущений одного субъекта.
Когда я просто смотрю на что-то и не задумыаюсь о том, на что смотрю, не пытаюсь понять, что это, я не применяю в сознании к зрительному образу никакой мыслительный алгоритм, просто ощущаю одновременно около миллиона цветных точек в субъективном зрительном пространстве. Такие моменты простого бездумного восприятия бывают, например, в коротких промежутках между мыслями, или в состоянии сильного опьянения или сильной усталости. Если и есть в это время подсознательная обработка информации - она не в счёт, именно потому, что она подсознательная, она не происходит в сознании, результаты её в сознание тоже не попадают, т.к. в сознании в этот момент лишь сырой поток данных от сетчатки. Эти данные об освещённости точек сетчатки идут по параллельным нейронным линиям, но я вижу их все одновременно. Какой же алгоритм должен выполняться, чтобы я воспринимал множество ощущений одновременно? Он ведь не должен быть сложным, по сути это алгоритм холостого хода сознания. Если предположить, что схема, дающая эту интеграцию, делает это с помощью множества каких-то перекрёстных связей между этими прараллельными каналами каждого с каждым, то это не приближает меня к пониманию, почему эти параллельные каналы да ещё и перекрёстные связи между ними я ощущаю одновремено в своём субъективном потоке ощущений. Даже если и возможна нейронная схема, осуществляющая такую интеграцию, то зачем эволюци городить сложную схему для холостого хода, тогда как интегрировать информацию о том, что происходит в разных местах пространства может уже даже простейший квантовый объект? Фотон в двухщелевом опыте имеет точную информацию о положении, форме, размере двух щелей в экране. Более того, он осведомлён так же и обо всём остальном экране, а именно о том, что во всём остальном экране больше никаких отверстий нет. Если в экране вместо двух щелей сделать отверстия в виде сложнейших фрактальных узоров, то фотон будет точно осведомлён обо всех элементах узора. Спутанные частицы ведут себя как единая частица, находящаяся в разных местах пространства одновременно, они так же могут легко интегрировать информацию о происходящем в разных местах. Я не вижу препятствий, почему эволюция не должна была бы использовать квантовые эффекты, если это удобно, а должна была бы ограничиваться строго классической физикой и городить кучу перекрёстных классических связей. Механизм интеграции ощущений в один поток получается на много проще на квантовой физике, чем на классической (моё мнение - на классической он вообще не возможен). Кроме того, существует мысленный эксперимент, в котором мозг имитируется миллиардом китайцев, каждый из которых реализует алгоритм нейрона, а связываются они между собой с помощью радио, телефонов и т.п. Предполагается, что они породят сознание, если считать, что важен алгоритм, но не важна платформа. Но для меня очень сомнительно, что субъективные опыты миллиарда человек вдруг сольются в единый поток ощущений только потому, что они звонили друг другу по телефону в определённом порядке и говорили определённые слова.
Объяснение интеграции сознания квантовой нелокальностью и спутанностью уже не раз предлагалось, единственная проблема на этом пути - тепловая декогеренция. Но у меня есть теория, как эта проблема решена в мозге. С декогеренцией мозг борется не консервативным способом, как это делается в квантовых компьютерах (изолируя и охлаждая), а динамическим способом, как это делается в лазере, с помощью механизма вынужденного излучения, постоянно воспроизводящего новые спутанные частицы. В лазере в каждый момент присутствует макроскопическое количество спутанных частиц, это количество поддерживается постоянным, пока подаётся энергия накачки. Биологическая ткань и лазерная генерация не такие уж несовместимые вещи, уже создан, например, лазер на бактериях.
deep_econom
27 июн, 2017 12:02 (местное)
***Я говорю о проблеме единства сознания, другое название - комбинационная проблема, проблема связывания сознания, проблема интеграции ощущений в единый поток ощущений одного субъекта.

нет никакой такой проблемы
берем комп и винду в качестве аналогии для пояснения

диспетчер процессов, это один из процессов, который мониторит другие процессы, синхронизирует их, распараллеливает при необходимости, никакой проблемы нет

ну да выполняются несколько процессов в параллель, монитор созщнания порой переключает фокус внимания с процесса на процесс, аналогом наверное можно привести прерывания операционной системы

не вижу никакой проблемы, имхо
проблема надумана

Соединится ли наука с религией, а человек с машиной

http://khazin.livejournal.com/1670199.html

Tags: искин
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 2 comments