Начало здесь: http://www.stocksharp.com/forum/4136/Mnoghosloinyi-piersieptron--Vstriechaitie--Vpiervyie-na-arienie/ Первая часть: Для тех, кто верит в нейросети В вышеуказанном посте я описал работу персептрона, как он учится и торгует после обучения. Проблема в том, что я начитавшись постов в интернете сделал как все. То есть, собрал сеть, обучил, написал стратегию под сеть, и давай ее тестировать! Обучу на одних входных параметрах, тестирую стратеги, обучу на других, тестирую. И тут меня осенило! Когда сеть обучается идет подсчет ошибки, а что если вести параллельный подсчет еще и ошибки работы сети на данных не участвующих в обучении? После реализации чего, прогнав данные в которые я верил, окончательно разочаровался в персептроне. Но все по порядку. Вторая часть: Что я поправил еще до этой идеи. Убрал позорный график и вставил родной от S# . Параметры персептрона теперь передаются в StatisticParameterPanel от S# . Обучается параллельно 5 нейросетей с одинаковыми параметрами, но с разными первоначальными весами. Сохраняется одна сеть на выбор пользователя, один раз при остановке обучения (раньше сохранялась при обновлении минимума). Еще по мелочи, кнопки убрал, перегруппировал и тп. Третья часть: Что я поправил после этой идеи. Добавил еще график для вывода контрольной ошибки. Ошибка считается теперь не среднеквадратичная, а абсолютная. Так легче для понимания графика. Например, на рисунке видно, что образов для обучения 804 это значит, что сети предоставлено 804 единиц, минус единиц, и нулей. Если сеть на каждый образ выдаст ноль, то суммарная ошибка будет равна 804. Что мы и видим на нижнем графике рисунка, вначале обучения ошибка сети равна 804. Контрольная ошибка считается также, как и ошибка обучения, но на следующий день после последнего дня обучающей последовательности. И НИКАКИМ ОБРАЗОМ НЕ ВЛИЯЕТ НА ОБУЧЕНИЕ СЕТИ. На рисунке видно, что количество образов проверки 161, это значить что если сеть не нашла закономерность, то контрольная ошибка будет колебаться вокруг 161. По логике вещей если сеть нашла закономерность, то контрольная ошибка всех 5 сетей должна устремиться вниз. И дойти хотя бы до 100-110. Но такого я не видел. Прошу если кто-то этого добьется, опубликуйте скирин окошка, верните веру. В выложенном варианте входную последовательность, и эталон я менять не стал(ну не выкладывать же грааль ). Все как первом моем посте на эту тему. И лежит там же. Четвертая часть: Мой соображения Вместе с входными полезными данными мы подаем много мусора в надежде что сеть из мусора вытащит закономерности. А она подстраивается под мусор, и запоминая его, обучаясь до определенного момента. Вывод: на вход сети надо подавать обработанные данные в которых много полезной информации и мало мусора, вопрос зачем мне нейросеть если у меня есть такие данные? Вот и все! Всем спасибо за внимание! Жду отзывов, и лайков!