Внимание!!! Это старая версия нашего сайта, новая версия находится здесь
NeuroShell®
2
16 нейросетевых архитектур
Модуль "Проектирование" NeuroShell 2 предлагает
на Ваш выбор 16 различных нейросетей, архитектура которых показана на картинках.
Для каждой из них возможны несколько методов обучения. Чтобы установить
параметры нейросети, Вам нужно просто указать курсором на блок или связь
и щелкнуть мышкой. Блок представляет собой часть слоя нейронов.
В любой нейросетевой архитектуре Вы можете установить
параметры для каждого блока и каждой связи, выбирая их мышью.
Сети с обратным распространением ошибки
NeuroShell 2 предлагает 12 различных сетей с обратным распространением
ошибки, реализующие специальную версию алгоритма, разработанную компанией
Ward Systems Group для повышения быстродействия
и точности.
Стандартные сети
Это стандартный тип сетей с обратным распространением, в котором каждый
слой связан только с непосредственно предшествующим слоем.
Сети с обходными соединениями
В сетях с обратным распространением этого типа каждый слой связан со всеми
предшествующими слоями.
Рекуррентные сети
Рекуррентные сети с обратным распространением ошибки часто применяются
для финансовых биржевых предсказаний, поскольку эти сети могут запоминать
последовательности. Благодаря этому свойству такие сети являются прекрасным
инструментом для работы с данными, представляющими собой временные серии.
Обычные сети с обратным распространением дают всегда в точности тот
же самый ответ на один и тот же предъявляемый образ, тогда как ответ рекуррентной
сети в подобных случаях будет зависеть от того, какие образы предъявлялись
сети перед этим. Рекуррентные сети обладают долговременной памятью, построенной
на внутренних нейронах.
Сети Ворда
Сети этого типа способны выделять различные свойства в данных, благодаря
наличию в скрытом слое нескольких блоков, каждый из которых имеет свою
передаточную функцию. Передаточные функции (обычно сигмоидного типа) служат
для преобразования внутренней активности нейрона. Когда в разных блоках
скрытого слоя используются разные передаточные функции, нейросеть оказывается
способной выявлять новые свойства в предъявляемом образе.
Все архитектуры с обратным распространением ошибки могут использовать
разные способы подстройки весов: Простой, С Моментом и TurboProp. При Простом
способе тренировки при предъявлении кажого примера происходит подстройка
весов с заданной скоростью обучения. Подстройка С Моментом означает,
что при модификации весов учитывается не только заданная скорость обучения,
но и предыдущее изменение веса. TurboProp - это такой способ тренировки,
при котором веса модифицируются после предъявления всех примеров (пакетная
подстройка весов). Этот метод иногда работает гораздо быстрее, чем другие
алгоритмы обратного распространения ошибки. Дополнительное удобства для
пользователей состоит также в том, что TurboProp не требует установки скорости
обучения и момента.
Все сети с обратным распространением ошибки используют Калибровку, что
предотвращает возможность "переучивания" сети (и тем самым сильно сокращает
время тренировки), а также улучшает способность сети обобщать информацию.
Сети Кохонена
В NeuroShell 2 имеется нейросеть, называемая
Саморганизующейся Картой Кохонена. Сетям этого типа в процессе обучения
не нужен "учитель", т.е. в процессе тренировки не требуется сообщать сети
правильный ответ при предъявлении примера. Эти сети способны находить распределение
данных на различные категории (классы).
Вероятностные нейронные сети
Вероятностные Нейронные Сети (ВНС) известны своей способностью обучаться
на ограниченных наборах данных, причем для обучения нейросети достаточно
однократного предъявления тренировочного набора! ВНС разделяет данные на
указанное количество выходных категорий. Сеть ВНС зачастую способна работать
уже после предъявления ей всего двух примеров из тренировочного набора,
поэтому тренировка может осуществляться поэтапно.
Нейронные сети с общей регрессией
Подобно сетям ВНС, Нейронные Сети с Общей Регрессией (НСОР) известны своей
способностью обучения в результате однократного предъявления тренировочных
данных. Однако, в отличие от сетей ВНС, которые классифицируют данные,
сети НСОР способны предсказывать выходы с непрерывной амплитудой.
НСОР особенно полезны для аппроксимации непрерывных функций и могут
строить многомерные поверхности, аппроксимирующие данные. Мы обнаружили
в наших экспериментах, что для многих типов задач сети НСОР делают предсказания
значительно лучше, чем сети с обратным распространением ошибки.
Обращаем Ваше внимание: НСОР не использует приемов регрессионного анализа!
Для сетей ВНС и НСОР термин "Калибровка" означает оптимизацию параметра
сглаживания, который используется в момент применения сетей. Модуль Калибровки
с Генетическим Поиском использует генетический алгоритм для нахождения
индивидуальных параметров сглаживания для каждой входной переменной, что
дает возможность получить сеть с очень хорошими обобщающими свойствами.
Полиномиальные сети
NeuroShell 2 включает в себя очень мощную
архитектуру, называемую Методом группового учета аргумента (МГУА) или полиномиальными
сетями. На самом деле, сеть МГУА не похожа на обычные сети с прямой
связью, и изначально эта архитектура обычно не представлялась в виде сети.
Сеть МГУА содержит в связях полиномиальные выражения и использует в некотором
смысле аналогичный генетическим алгоритмам механизм принятия решения о
том, сколько слоев необходимо построить. Результатом тренировки является
возможность представить выход как полиномиальную функцию всех или части
входов.
Модуль генератора автономных файлов
После того, как Вы натренировали сеть, Вы можете обрабатывать файлы с входными
данными в NeuroShell 2. Однако, Вы также можете
создавать интерактивные программы или рабочие листы Microsoft Excel(TM),
использующие созданные Вами сети. Генератор автономных файлов сохраняет
сеть в файле таким образом, чтобы позднее можно было получить к ней доступ
через динамическую библиотеку (DLL). Это наиболее удобный способ автономного
использования Вашей сети из программ, работающих под Microsoft Windows.
Например, если Вы захотите воспользоваться Вашей сетью позднее из программы,
написанной на C, Pascal, Microsoft Visual Basic(TM), Visual C++(TM), Access
и т.д., Вам следует просто вызвать библиотечную функцию FireNet. Ваша программа
передаст этой функции значения входов, а FireNet вернет Вам ответ сети.
В Excel Вы просто помещаете функцию Predict в ячейку, указывая необходимые
значения входов сети. В этой ячейке появится ответ сети.
Если же Вы хотите иметь возможность вызывать (применять) Вашу сеть из
программы ДОС, на рабочей станции, на большой ЭВМ или с помощью какого-либо
специализированного процессора, Вам поможет Генератор программного
кода. С его помощью Вы можете представить натренированную Вами сеть
в виде программного кода самого общего вида на Си или Visual Basic.