НейроГалактика

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » НейроГалактика » Анализ ВР с применением Нейросетевых технологий » Основные сокращения (термины и их короткие пояснения)


Основные сокращения (термины и их короткие пояснения)

Сообщений 1 страница 3 из 3

1

ОСНОВНЫЕ ТЕРМИНЫ И СОКРАЩЕНИЯ

Сразу скажу, что знать всё это наизусть необязательно. [Вообще для меня теоретический раздел помимо просветительских целей и средства удовлетворения проснувшихся преподавательских инстинктов, служит своего рода обобщением пройденного, т.е. что-то объясняя другим, я сам обобщаю то, что узнал и сам начинаю лучше понимать материал] Те, понятия, которые будут часто использоваться, вы легко запомните, на остальные – по фигу… Для удобства в начале каждой странички теоретической темы я буду давать ссылку на этот список, чтобы вы могли быстро освежить их в памяти. А вообще говоря – рекомендую распечатать. Кроме того, рекомендуется использовать эти сокращения в ваших собственных сообщениях, чтобы на форуме действовало единое терминологическое пространство. Это реально сэкономит время и силы (количество ударов по клавишам на единицу времени :)). Большинство из этих терминов – научные понятия. Для меня их использование не есть самоцель. Но освоив их, вы сможете с большей легкостью читать книги по НС, анализу ВР, цифровой фильтрации и т.п. Знакомство с этими книгами может дать хорошую основу для построения прибыльной торговой системы – а это одна из важнейших задач нашего форума. Ну, я надеюсь, что и мои «лекции» в этом вам помогут, тем более что я стремлюсь к той же цели…
P.S. Хотя кроме расшифровки сокращений я привожу и короткие пояснения – они лишь первоначальные ориентиры, т.е. если термин нам встретиться при изучении практически важных аспектов, то он будет объяснен более широко и всесторонне. :)

АГК – анализ главных компонент – стат. процедура, нацеленная на декорреляцию  имеющихся многомерных данных (т.е. представление их в новом, прямоугольном базисе, в котором они независимы друг от друга).

АКФ – автокорреляционная функция – функция, показывающая корреляцию текущего значения ВР с предыдущими.

АН – ассоциативный нейрон, т.е. нейрон скрытого слоя.

АР – авторегрессия – линейная модель ВР, в которой будущее значение представляется как взвешенная сумма предыдущих выходных значений модели.

АРСС – авторегрессионное скользящее среднее – комбинация АР и СС-моделей.

АС – ассоциативный (скрытый) слой.

АФ – адаптивный фильтр – линейная НС, реализующая адаптивную фильтрацию сигналов.

БИХ-фильтр – линейная система с бесконечной импульсной характеристикой. Единичный импульс, поданный на вход такой системы, экспоненциально убывает. Это происходит за счет наличия обратной связи между входом и выходом. Экспоненциальная скользящая средняя (EMA) – БИХ-фильтр.

ВР – временной ряд – последовательность значений цены, объема, показателей индикаторов и т.п. С точки зрения ЛА – вектор.

ДВП – долговременная память – информация, закодированная в весах НС.

ДР – диаграмма рассеяния – способ графического отображения взаимодействия 2 или 3 переменных. Коррелированные переменные на такой диаграмме вытягиваются в виде «облака». ДР очень удобна для визуального анализа зависимостей.

ИП – итеративный прогноз – прогноз на несколько отчетов вперед, когда спрогнозированное НС значение с выхода подается обратно на вход.

КВВ – кросс-валидационная выборка – множество примеров, используемых для контроля генерализации (т.е. способности к обобщению) НС. Используется как средство против переобучения (переподгонки).

КВП – кратковременная память (память через задержку или память через обратную связь) – аналогична оперативной памяти ПК. Пример: значения ВР в ОЛЗ.

КИХ-фильтр – линейная система с конечной импульсной характеристикой. Единичный импульс, поданный на вход такой системы, может иметь произвольный «рисунок», но через конечное число временных отсчетов он обрывается (когда выходит за пределы емкости ОЛЗ). Простая скользящая средняя (SMA) – КИХ-фильтр.

КК – коэффициент корреляции – мера линейной зависимости, отражающая сходство/контраст во взаимных движениях значений переменных.

КО – кривая обучения НС – график, на котором фиксируется ошибка аппроксимации НС последовательно по эпохам обучения или входным векторам (в on-line режиме).

ЛА – линейная алгебра – отрасль математики, исследующая матрицы, вектора и операции над ними.

МК – матрица классификации – таблица, в которой указывается количество (или %) правильно и неправильно классифицированных входных векторов по классам. Чем больше числа на главной диагонали (идет из верхнего левого в нижний правый угол) такой матрицы, тем лучше обучилась НС.

МН – моторный нейрон, т.е. нейрон выходного слоя.

МС – моторный (выходной) слой.

МСП – многослойный перцептрон. Популярная архитектура НС, используемая для решения задачи классификации или регрессии.

НС – нейронная сеть – алгоритм, извлекающий знания из выборочных данных на основе индуктивного принципа, способный к обучению в on-line режиме. Чаще всего НС используются для решения задач регрессии и классификации (ОсУ), ортогонализации (понижения размерности данных) и кластеризации (ОбУ).

НСВЗ – нейронная сеть временной задержки – комбинация МСП и ОЛЗ. Наиболее популярная архитектура для прогнозирования ВР. По сути – наша «рабочая лошадка».

ОбУ – обучение без учителя – способ обучения НС, при котором сеть обучается структуре входных многомерных данных (находит главные компоненты или кластеры).

ОВ – обучающая выборка – множество наблюдений, используемое для непосредственного обучения НС.

ОЛЗ – отводная линия задержки – специальная структура СнС, обеспечивающая интерфейс для работы с ВР – КВП. ОЛЗ реализует модель «скользящего окна», инкорпорируя его непосредственно в структуру НС. ОЛЗ идеально подходит для работы с ВР, поскольку позволяет легко менять, напр., такой параметр как ширину окна (количество отведений ОЛЗ), при этом, не требуя ручной перегруппировки данных. На вход ОЛЗ можно подавать непосредственно сам ВР.

ОР – обратное распространение – популярный алгоритм обучения (ОсУ) НС.

ОсУ – обучение с учителем – способ обучения НС, ориентированный на решение задачи регрессии или классификации, предполагает наличие желаемого сигнала на выходе.

ПФ – передаточная функция – нелинейность в нейроне.

РБФ – радиальная базисная функция:
1) разновидность ПФ – гауссов «колокол»;
2) сеть на основе таких ПФ.

РШ – размер шага – параметр, определяющий скорость обучения НС. При слишком маленьком РШ обучение может чрезмерно затягиваться, при большом – становиться нестабильным. Зачастую оптимальное значение РШ определяется методом проб и ошибок.

СН – сенсорный нейрон, т.е. нейрон входного слоя.

СнС – сенсорный (входной) слой.

СОК – самоорганизующаяся карта – архитектура, ориентированная на решение задачи кластеризации (ОбУ).

ср. – среднее значение переменной.

СС – скользящее среднее (не путать со скользящей средней) – линейная модель ВР, в которой будущее значение представляется как взвешенная сумма входных значений модели, на вход которой подаётся белый (гауссов) шум.

ст.откл. – стандартное отклонение – мера разброса значений переменной, среднее отклонение от среднего.

ТВ – тестовая выборка – выборка, используемая для тестирования нескольких НС-моделей.

ЧАКФ – функция частной автокорреляции – функция, показывающая корреляцию текущего значения ВР с предыдущими в «очищенном» виде (в отличие от АКФ).

***

D(N) – разность цен текущего и предыдущего баров, приращение цены. Наиболее удобный способ расчета: D=(C-O)*10000. В результате получается тело свечи в пунктах. В скобках указывается временной индекс. Напр., D(0) означает текущее приращение цены, D(-5) – приращение 5 баров назад, D(+1) – будущее (прогнозируемое) приращение.

E – ошибка сети или шум.

logit – логистическая ПФ.

tanh – гиперболический тангенс – разновидность ПФ.

r – коэффициент корреляции.

w – вектор весов

x – входной вектор.

y – выходной вектор.

d – «желаемый» вектор (т.е. то, что НС должна спрогнозировать).

Мат. операторы:

+ сложение
- вычитание
* умножение
S{i=1 : N}xi оператор суммирования нескольких элементов
П{i=1 : N}xi оператор перемножения нескольких элементов
sqrt(x) квадратный корень из х
<x, y> скалярное произведение векторов x и y
r(x, y) КК между переменными x и y, т.е. скорее всего между двумя ВР

0

2

Я могу только одно сказать:  :hi: Я офигеваю!!! Это - реально можно распечатывать и вешать на стенку ;-) для заучивания! Весьма заинтересовался ОЛЗ!

0

3

Весьма заинтересовался ОЛЗ!

И правильно - штука удобная и полезная - можно менять ширину окошка не "трахаясь" (извиняюсь за выражение  :-) ) с данными.
Чтобы тут не "защумлять" перейдем в ПО раздел: Cуществующее ПО

0


Вы здесь » НейроГалактика » Анализ ВР с применением Нейросетевых технологий » Основные сокращения (термины и их короткие пояснения)