deep-econom (deep_econom) wrote,
deep-econom
deep_econom

Category:

универсальный алгоритм по увеличению сложности алгоритмов

что нужно, что бы универсальный алгоритм, мог конструировать более сложные алгоритмы?

предварительно требуется научить алгоритм делать копию описания алгоритма (копию ленты с описанием)
мы можем изначально заложить такую возможность, ничего сложного тут нет
или просто снабдить изготовленной копией или несколькими копиями

генерация сложности

1. выбираем рандомно несколько описаний алгоритмов из уже имеющихся
2. добавляем к основному описанию алгоритма описание добавочной побочной функции, которую генерировать можно разными способами, например
- произвольная комбинация известных описаний
- произвольная комбинация подпрограмм входящих в ленты
- генерация случайных подпрограмм любым способом, в том числе можно и через генерацию строк в лексикографическом порядке, очевидно, что время от времени будем наталкиваться на полезные подпрограммы
3. снабжаем вновь построенный автомат (аналогично построениям Неймана самовоспроизводящхся автоматов) изготовленной лентой с побочной функцией из п.2
4. производим наблюдение за функционированием автомата и таким образом выносим решением об отборе ленты в коллекцию ранее построенных лент

таким образом будет генерироваться достаточно тупое но увеличение сложности

более умное увеличение сложности требует более тщательного построения конструкций
поскольку я все время веду разговор про модели
то это будет универсальная машина извлекающая модели из окружающей среды и из перечня моделей хранящихся в памяти

эффективность алгоритма будет зависеть от сложности генерирующего модели подпрограммы
конечно в данном случае мы со всей полнотой упираемся в комбинаторный взрыв и прочее

с учетом предыдущих моих изложений про теорию сильного искина, принципиальных трудностей не видно точно также как не видно их при построении самовоспроизводящихся автоматов в стиле Неймана

принципиальных сложностей нет, принципиально вроде вопрос решен (якобы)
остается вопрос в написании алгоритмов и последовательном совершенствовании их, чтобы они делали хорошо и достаточно быстро

в принципе ситуация точно такая же как и с нейросетями, понятно что они как универсальные аппроксиматоры способны на многое, вопрос был в технических деталях и в том, как модифицировать структуру, чтобы нейросетки имели практический смысл
на текущий момент в этом серьезное продвижение достигнуто
аналогично надо строить и универсальную моделирующую машину, о принципиальных подходах я уже писал, также и о том с чего начать
ну а совершенствование базовых алгоритмов интересная техническая задача и одновременно творческая, базовые алгоритмы тоже еще надо придумывать и продумывать
в целом стратегически понятно в какую сторону надо идти и что примерно кодировать
а тактические решения могут быть весьма разнообразны

в данном посте ставилась задача показать, что возможно неограниченная генерация сложности и две теоремы Геделя для формальных систем нам не помеха, мы обходим их просто, добавляем произвольно новые аксиомы в нашу теорию

несократимая сложность жизни как иллюзия
https://deep-econom.livejournal.com/226875.html

естественный механизм увеличения сложности вплоть до жизни
https://deep-econom.livejournal.com/226663.html
Tags: искин
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 5 comments