Neuroproject.ru / Главная страница
   Главная / Каталог программ


 

О компании
Програмные продукты
Услуги
Обучение
Материалы
Форум
     НейроПрактикум   

   NeuroShell 2       GeneHunter       NeuroShell Predictor       NeuroShell Classifier       NeuroShell runtime server

   Deductor
 
NeuroShell 2
Универсальный пакет для нейросетевого анализа данных

   Полная информация о товаре

    Обзор возможностей
    Реализованные нейросетевые архитектуры
    Возможности анализировать работу Ваших сетей
    Графические средства анализа данных
    Дополнительные возможности для работы с биржевыми данными

Реализованные нейросетевые архитектуры

  NeuroShell2 - выбор архитектуры нейросети

Модуль "Проектирование" NeuroShell 2 предлагает на Ваш выбор 16 различных нейросетей, архитектура которых показана на картинках. Для каждой из них возможны несколько методов обучения. Чтобы установить параметры нейросети, Вам нужно просто указать курсором на блок или связь и щелкнуть мышкой. Блок представляет собой часть слоя нейронов.



В NeuroShell 2 вы можете использовать сети, реализующие следующие нейросетевые парадигмы :

  1. Сети с обратным распространением ошибки
  2. Сети Кохонена
  3. Вероятностные нейронные сети
  4. Нейронные сети с общей регрессией
  5. Полиномиальные сети
  NeuroShell2 - настройка параметров нейросети

В любой нейросетевой архитектуре Вы можете установить параметры для каждого блока и каждой связи, выбирая их мышью.










Сети с обратным распространением ошибки

Стандартные сети

Это стандартный тип сетей с обратным распространением, в котором каждый слой связан только с непосредственно предшествующим слоем.



Сети с обходными соединениями.

В сетях с обратным распространением этого типа каждый слой связан со всеми предшествующими слоями.



Рекуррентные сети

Рекуррентные сети с обратным распространением ошибки часто применяются для финансовых биржевых предсказаний, поскольку эти сети могут запоминать последовательности. Благодаря этому свойству такие сети являются прекрасным инструментом для работы с данными, представляющими собой временные серии.

Обычные сети с обратным распространением дают всегда в точности тот же самый ответ на один и тот же предъявляемый образ, тогда как ответ рекуррентной сети в подобных случаях будет зависеть от того, какие образы предъявлялись сети перед этим. Рекуррентные сети обладают долговременной памятью, построенной на внутренних нейронах.



Сети Ворда

Сети этого типа способны выделять различные свойства в данных, благодаря наличию в скрытом слое нескольких блоков, каждый из которых имеет свою передаточную функцию. Передаточные функции (обычно сигмоидного типа) служат для преобразования внутренней активности нейрона. Когда в разных блоках скрытого слоя используются разные передаточные функции, нейросеть оказывается способной выявлять новые свойства в предъявляемом образе.



Все архитектуры с обратным распространением ошибки могут использовать разные способы подстройки весов: Простой, С Моментом и TurboProp. При Простом способе тренировки при предъявлении кажого примера происходит подстройка весов с заданной скоростью обучения. Подстройка С Моментом означает, что при модификации весов учитывается не только заданная скорость обучения, но и предыдущее изменение веса. TurboProp - это такой способ тренировки, при котором веса модифицируются после предъявления всех примеров (пакетная подстройка весов). Этот метод иногда работает гораздо быстрее, чем другие алгоритмы обратного распространения ошибки. Дополнительное удобства для пользователей состоит также в том, что TurboProp не требует установки скорости обучения и момента.



Все сети с обратным распространением ошибки используют Калибровку, что предотвращает возможность "переучивания" сети (и тем самым сильно сокращает время тренировки), а также улучшает способность сети обобщать информацию.



Сети Кохонена

В NeuroShell 2 имеется нейросеть, называемая Саморганизующейся Картой Кохонена. Сетям этого типа в процессе обучения не нужен "учитель", т.е. в процессе тренировки не требуется сообщать сети правильный ответ при предъявлении примера. Эти сети способны находить распределение данных на различные категории (классы).



Вероятностные нейронные сети

Вероятностные Нейронные Сети (ВНС) известны своей способностью обучаться на ограниченных наборах данных, причем для обучения нейросети достаточно однократного предъявления тренировочного набора! ВНС разделяет данные на указанное количество выходных категорий. Сеть ВНС зачастую способна работать уже после предъявления ей всего двух примеров из тренировочного набора, поэтому тренировка может осуществляться поэтапно.



Нейронные сети с общей регрессией

Подобно сетям ВНС, Нейронные Сети с Общей Регрессией (НСОР) известны своей способностью обучения в результате однократного предъявления тренировочных данных. Однако, в отличие от сетей ВНС, которые классифицируют данные, сети НСОР способны предсказывать выходы с непрерывной амплитудой.

НСОР особенно полезны для аппроксимации непрерывных функций и могут строить многомерные поверхности, аппроксимирующие данные. Мы обнаружили в наших экспериментах, что для многих типов задач сети НСОР делают предсказания значительно лучше, чем сети с обратным распространением ошибки. Обращаем Ваше внимание: НСОР не использует приемов регрессионного анализа!

Для сетей ВНС и НСОР термин "Калибровка" означает оптимизацию параметра сглаживания, который используется в момент применения сетей. Модуль Калибровки с Генетическим Поиском использует генетический алгоритм для нахождения индивидуальных параметров сглаживания для каждой входной переменной, что дает возможность получить сеть с очень хорошими обобщающими свойствами.



Полиномиальные сети

NeuroShell 2 включает в себя очень мощную архитектуру, называемую Методом группового учета аргумента (МГУА) или полиномиальными сетями. На самом деле, сеть МГУА не похожа на обычные сети с прямой связью, и изначально эта архитектура обычно не представлялась в виде сети. Сеть МГУА содержит в связях полиномиальные выражения и использует в некотором смысле аналогичный генетическим алгоритмам механизм принятия решения о том, сколько слоев необходимо построить. Результатом тренировки является возможность представить выход как полиномиальную функцию всех или части входов.


    Обзор возможностей
    Реализованные нейросетевые архитектуры
    Возможности анализировать работу Ваших сетей
    Графические средства анализа данных
    Дополнительные возможности для работы с биржевыми данными

     НейроПрактикум       NeuroShell 2       GeneHunter       NeuroShell Predictor       NeuroShell Classifier       NeuroShell runtime server

   Deductor


Rambler's Top100 Rambler's Top100