НейроГалактика

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » НейроГалактика » Для начинающих » Что кроме многослойных перцептронов (перспетронов)


Что кроме многослойных перцептронов (перспетронов)

Сообщений 1 страница 9 из 9

1

Ну, вот... уже звучат разные такие новые для меня слова, типа "вейвлет"-преобразований. (Правильно я сказал?)... А еще есть самоорганизующиеся карты (на основе сетей Кохена).

Что это такое? С чем это едят ;) ?

Вот, с чего, собственно, вопрос возник. В ветке "Эксперимент 1" я пришел к выводам о том, что в некоторых случаях может быть полезно классифицировать общую ("дистрибутивную") выборку исходных данных по некоторым признакам. Правда, в моем случае, это не привело к положительным результатам: из без того малая "предсказуемость" исходных данных в локальной суб-выборке оказалась еще меньше, чем в общей. Но я склонен думать, что это - не потому, что классифицирование данных не имеет смысла, а потому, что я вообще в корне не правильно подходил в этом первом своем эксперименте к постановке вопроса.

Ну, и отсюда - просьба: рассазать, что такое есть вот эти вот самые вейвлеты и карты самоорганизующиеся и как их использовать. Предположительно, можно на рынке выделить определенные повторяющиеся участки, приводящие к схожим последствиям. Ну, самое простое - из свечного анализа: после определенных комбинаций баров тренд вероятнее всего, продолжится, а после других комбинаций, он склонен измениться (или, во всяком случае, скорректироваться).

Опять же, можно предположить, что если есть тренд, и что его скорость растет, то она и будет расти еще некоторое время, после чего начнет спадать.... ну, и вообще, есть тренды быстрые и активные (но непродолжительные), а есть тренды спокойные и размеренные (и очень долго длящиеся)....

Так вот. Можно ли как-то это все хозяйство классифицировать?

С нетерпением жду ответов ;)

З.Ы. Я же говорил, что придет и твое время, Вадим, ответствовать ;)

0

2

Я же говорил, что придет и твое время

Я ждал это время и вот это время пришло.
Те кто молчал, перестали молчать...

Это так лирика. А если серьёзно, то пожалуй надо мне написать небольшой обзор по основным топологиям - и от него уже и плясать. Но это будет оч. по кайфу, поскольку тут я действительно "собаку съел".

Пока коротко о вейвлете (wavelet) - это типа спектрального анализа, только локальный он. Спектральный анализ раскладывает ВР на синусоиды с различной частотой и фазой (сдвигом). А вейвлет это делает при помощи локальныз функций, т.е. сосредоточенных в окресностях одной точки - хороший пример Гауссов "колокол" - кривая норм распределения. Если у тебя есть MATLAB открой тулбокс с вейвлетом подгрузи туда ВР и насладись видом - поскольку это действительно красиво. Если MATLABа нет - обязательно заимей - эта прога того стоит в любом случае. Там е сть и собственно с НС неплохой тулбокс. Продолдение будет обязательно!...

0

3

Значица так. Классификацию НС можно проводить по разным основаниям. Что есть НС? Топология (элементы и связи между ними), динамика и правило обучения + базисы для аппроксимации. Исходя из этих критериев, мы и будем строить классификацию. Условимся называть НС любой алгоритм, способный обучаться в режиме on-line (чтобы отличить их от классических аналитических процедур стат. анализа типа линейной регрессии и т.п.). Вообще говоря, почти любому НС методу можно найти его аналог в классической статистике. Ну да фиг с ней. Не о том сейчас речь. С мат. точки зрения любая НС занимается ничем иным как функциональной аппроксимацией (function approximation). Всё остальное - от лукавого. Классическим примером ФА можно назвать спектральный анализ. Поехали.

I. Статические топологии:

1. Обучение с учителем (supervised learning):
а) глобальная аппроксимация:
- многослойный перцептрон (multilayer perceptron - MLP). В качестве базисов используются глобальные функции: обычно логистическая функция или гиперболический тангенс.

б) локальная аппроксимация:
- сети на радиальных базисных функциях (radial basis function - RBF). Используются гауссовы функции.
- вейвлет сети (wavelet). Новомодная хрень. Используются вейвлеты как базисы. Пока это экзотика.

В чём разница. RBF – быстрее обучаются, но требуют больше ресурсов памяти (при больших выборках могут быть проблемы), неспособны к экстраполяции (на самом деле это не страшно, поскольку прогноз – это интерполяции в большинстве случаев). В зависимости от формы функциональной зависимости между входом/выходом могут лучше работать те или иные топологии. Однозначного предпочтения отдать нельзя.

В зависимости от характера выхода эти топологии решают или задачу классификации или регрессии.

в) опорно-векторная машина (support vector machine). Один из лучших классификаторов на сегодня. Предложен Вапником (наш ученый!). Базисы – обычно RBF, но могут любые быть. Отличается от RBF правилом обучения. SVM проводит решающую поверхность посередине границы между классами (а MLP и RBF как попало). Это обеспечивает лучшую способность к обобщению. Может использоваться и для регрессии. Очень хорошо обучается. Проблемы -  как и у RBF.

2. Обучение без учителя (unsupervised learning).

В отличие от 1 здесь нет желаемого сигнала на выходе. Сеть анализирует структуру самих входов. Если 1 решают задачи регрессии и классификации, то 2 – задачи понижения размерности и кластеризации.

а) обучение по Хеббу [канадский нейрофизиолог – светлая ему память, замечательный ученый был] (hebbian learning). Эти НС имеют несколько входов и несколько выходов (не больше чем входов). Они решают задачу понижения размерности входов, известную в статистике как анализ главных компонент [факторный анализ – по сути также хрень] (principal component analysis - PCA). На выходе эта сеть даёт координаты входных векторов в ортогональной координатной системе (количество выходных нейронов определяет итоговую размерность данных). Может использоваться для сжатия информации и предобработки (гадские корреляции исчезают).
*анти-Хебб (anti-hebbian learning). Тоже самое. Только размер шага (step size) задаётся отрицательным. Подробнее – в динамических топологиях.

б) обучение с конкуренцией (competitive learning). Задача кластеризации. Это тоже можно рассматривать как сжатие информации. Такие сетки находят скопления точек данных с высокой плотностью концентрации (т.н. «кластеры»), т.е. они делают как бы натуральную классификацию данных (объекты близкие в пространстве переменных считаются принадлежащими к одному классу-кластеру). Количество нейронов в выходном слое задаёт количество кластеров. Если на вход подавать различные ТА-индикаторы, то выделенные кластеры будут соответствовать некоторым типичным ситуациям на рынке, т.е. своего рода паттернам (может даже сопоставимым с классическими типа «голова  и плечи» и т.п.). Это конечно в идеальном случае, т.е. если такие паттерны действительно имеются в действительности. В противном случае НС будет просто давать некие бессмысленные сигналы. [Ну в общем тут так же как и с прогнозом]. Каждый нейрон в выходном слое соответствует тому или иному кластеру, т.е. тому или иному состоянию, режиму рынка. Обычно competitive learning – это сети Кохонена, т.н. самоорганизующиеся карты [признаков] (self-organized [feature] map – SOM, SOMF). Но есть и более продвинутые методы. И они у меня есть в виде проги :) – если будет интерес расскажу подробнее и поделюсь ссылками. Вообще говоря, ещё выделяют «мягкое соревнование» (soft competition) – это и есть Кохонен и «твердое» (hard competition). Но это уже тонкости.

Пока всё. В сл. № НС-ликбеза рассмотрим динамические топологии, которые, вообще говоря, для нас представляют наибольший интерес, поскольку рынок – это динамика.

Отредактировано beholder22 (2006-09-19 19:25:33)

0

4

Даааа... дядьку, ты крут реально! Пока что прочитал один раз... но, думаю, надо еще раз... Блин! пока что даже и ответить-то нечего, собственно...

0

5

Блин! пока что даже и ответить-то нечего, собственно...

То ли ещё будет во второй части (динамические топологии) :) Если серьезно, это не так сложно. Я попытаюсь это всё проиллюстрировать картинками - топологии и т.п. и конкретными примерами насколько возможно из области трейдинга. Какие-то вещи может и не имеют практ. применения. Но я уж расскажу понемногу обо всем - заодно обобщу для самого себя, что узнал. Ктому же возможности практ. применения ограничиваются во многом нашим воображением. Никогда заранее не знаешь, что пригодится, а что нет.

0

6

Вообще, конечно, надо сказать, что динамическое строение НС - было бы интересно... но пока что я даже не представляю, как к этому подступиться. Тут, мне кажется, придется уж точно свое ПО писать... ибо, вряд ли на имеющемся ПО можно что-то подобное сотворить.... (если топология и архитектура сети - это одно и тоже, как я пока что думаю)...

0

7

Что-то во мне проснулась страсть к просветительству. Подумал, может открыть темку типа "Анализ ВР: базовые элементы теории". Там будут стат., мат. и т.п. ньюансы и всякая такая хрень высоконаучная :)  Как считаешь, надо?

0

8

если топология и архитектура сети - это одно и тоже

Да - это одна фигня

0

9

Давай! я тебе даже создам для этого раздел ;)

Собственно, - раздел создан: разделяй (на темки) и властвуй ;) гы-гы!

0


Вы здесь » НейроГалактика » Для начинающих » Что кроме многослойных перцептронов (перспетронов)