Essays.club - Получите бесплатные рефераты, курсовые работы и научные статьи
Поиск

Нейронные сети

Автор:   •  Ноябрь 19, 2018  •  Доклад  •  864 Слов (4 Страниц)  •  421 Просмотры

Страница 1 из 4

Нейронные сети состоят из слоев взаимосвязанных узлов. Отдельные узлы называются перцептронами и напоминают множественную линейную регрессию. Разница между множественной линейной регрессией и персептроном заключается в том, что персептрон подает сигнал, генерируемый множественной линейной регрессией, в функцию активации, которая может быть или не быть нелинейной. В многослойном персептроне (MLP) перцептроны располагаются слоями, а слои связаны друг с другом. В MLP есть три типа слоев, а именно: входной слой, скрытый слой(Ы) и выходной слой. Входного слоя получает модели входной и выходной слой может содержать список классификаций или выходных сигналов этих моделей входных карте. Скрытые слои регулируют веса на этих входах до тех пор, пока ошибка нейронной сети не будет сведена к минимуму. Одна из интерпретаций этого заключается в том, что скрытые слои извлекают характерные особенности во входных данных, которые имеют предсказательную силу по отношению к выходным данным.

ОТОБРАЖЕНИЕ ВХОДОВ: ВЫХОДЫ

Перцептрон получает вектор входных данных z=(z1, z2,..., zn), состоящий из n атрибутов. Этот вектор входных данных называется входным шаблоном. Эти входные данные взвешиваются в соответствии с вектором веса, принадлежащим этому персептрону, v=(v1,v2,...,vn). В контексте множественной линейной регрессии их можно рассматривать как коэффициенты регрессии или бета. Чистый входной сигнал, net, персептрона, как правило, сумма произведение входного шаблона и их веса. Нейроны, которые используют продукт суммирования для сети, называются единицами суммирования.

net=∑ni-1 zi vi

Чистый входной сигнал, минус bias смещения после этого кормится в некоторую функцию активации, Ф(). Функции активации, как правило, монотонно возрастающие функции, которые ограничены между либо (0,1) или (-1,1) (это обсуждается далее в этой статье). Функции активации могут быть линейными или нелинейными.

Простейшая нейронная сеть-это нейрон, который имеет только один нейрон, который отображает входы на выход. При заданном паттерне, p, целью этой сети было бы минимизировать ошибку выходного сигнала, op, относительно некоторого известного целевого значения для некоторого заданного паттерна обучения, tp. Например, если нейрон должен был отобразить p в -1, но он сопоставил его с 1, то ошибка, измеренная суммированным квадратом расстояния, нейрона будет 4, (−1−1)

Как показано на рисунке выше, перцептроны организованы в слои. Первый слой или перцептроны, названные входными данными позже, получают паттерны, p, в обучающем наборе, PT. Последний слой сопоставляется с ожидаемыми выходными данными для этих шаблонов. Примером этого является то, что паттерны могут представлять собой список количеств для различных технических индикаторов, касающихся ценной бумаги, а потенциальными результатами могут быть категории {BUY,HOLD,SELL}.

Скрытый слой-это слой, который получает в качестве входных данных выходные данные из другого слоя; и для которого выходные данные образуют входные данные в еще один слой. Так что же делают эти скрытые слои? Одна из интерпретаций заключается в том, что они извлекают характерные особенности во входных данных, которые имеют предсказательную силу по отношению к выходным данным. Это называется извлечением признаков и в некотором смысле выполняет аналогичную функцию статистическим методам, таким как анализ главных компонент.

Глубокие нейронные сети имеют большое количество скрытых слоев и способны извлекать из данных гораздо более глубокие объекты. В последнее время глубокие нейронные сети особенно хорошо справляются с проблемами распознавания изображений. Иллюстрация извлечения признаков в контексте распознавания изображений показана ниже, Я думаю, что одна из проблем, стоящих перед использованием глубоких нейронных сетей для торговли (в дополнение к очевидному риску переобучения), заключается в том, что входы в нейронную сеть почти всегда сильно предварительно обрабатываются, что может быть мало возможностей для фактического извлечения, потому что входы уже в некоторой степени являются функциями.

...

Скачать:   txt (12 Kb)   pdf (153.6 Kb)   docx (13.1 Kb)  
Продолжить читать еще 3 страниц(ы) »
Доступно только на Essays.club