Список форумов neuroproject.ru neuroproject.ru
Форум сайта компании НейроПроект
 
 FAQFAQ   ПоискПоиск   ПользователиПользователи   ГруппыГруппы   РегистрацияРегистрация 
 ПрофильПрофиль   Войти и проверить личные сообщенияВойти и проверить личные сообщения   ВходВход 

выбор оптимальных переменных

 
Начать новую тему   Ответить на тему    Список форумов neuroproject.ru -> Другие задачи
Предыдущая тема :: Следующая тема  
Автор Сообщение
Дмитрий
Новый посетитель
Новый посетитель


Зарегистрирован: 05 Июл 2005
Сообщения: 1

СообщениеДобавлено: Вт Июл 05, 2005 6:50 am    Заголовок сообщения: выбор оптимальных переменных Ответить с цитатой

Хорошо, что вы открыли этот форум. Давно пора!

Мне вот интересно, какие алгоритмы популярны у вас для выбора наиболее оптимальных переменных. Я использовал простые статистические тесты, типа теста Колмогорова-Смирнова и т.п., но это было для классификации. Сейчас мне надо найти интересные переменные для оценки стоимости автомобилей.
_________________
продажа автомобилей
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
siteadmin
НейроПроект
НейроПроект


Зарегистрирован: 10 Июн 2005
Сообщения: 80
Откуда: Москва

СообщениеДобавлено: Ср Июл 06, 2005 1:42 am    Заголовок сообщения: Ответить с цитатой

здравствуйте, Дмитрий.
Мы для решения подобных задач в основном используем функциональность, заложенную в NeuroShell. В нем можно анализировать значимость входов для сетей обратного распространения, для GRNN и для PNN. То есть, например, стоит задача : есть много входов и желаемый выход. Требуется выбрать из всего множества входов только значимые. Мы учим нейронную сеть(например, трехслойный перцептрон), используя эти данные, затем в модуле анализа значимости входов смотрим, какие входы имеют веса больше порога (алгоритм выбора порога - это отдельный вопрос Smile ). Затем мы отбрасываем все малозначительные веса и учим сеть используя обрезаный набор входов. Если ошибка не возрастает или возрастает не сильно( а иногда бывает так, что она вообще уменьшается), то все хорошо, если нет, то думаем дальше (можно играться со входами, либо нейросетевыми конфигурациями).
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Посетить сайт автора
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Пн Июл 09, 2007 2:17 pm    Заголовок сообщения: Софт, соответствующий задаче Ответить с цитатой

Здравствуйте.

Можете подсказать, какой софт лучше всего может соответствовать решению задачи:

У меня есть 10 объектов, имеющих несколько количественных и качественных параметров, зависимых от времени и в то же время попарно связанных друг с другом в двух направлениях от одного к другому и обратно (типа потоков воды) и автономных (индивидуально для каждого объекта).
Сейчас все параметры оцифрованы и представляют таблицу (временные ряды).

Есть выход – итоговый тренд (обучающая выборка и пр.) или попросту временной столбец даных.

Как учесть помимо простого анализа таблицы также и связи между объектами и сами объекты (оставить для расчета или удалить), чтобы наилучшим образом получить выход и его прогнозирование ?

Программа в моем понимании должны делать следующее:
1.На обучающем диапазоне определить все параметры сети и оставить только влияющие связи между объектами, наилучшим образом описывающие тренд.
2. Вычислить погрешность на тестовом диапазоне, внести изменения в сеть (учет связей, объектов, параметров) и вернуться к п.1. И так до минимально возможной погрешности.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Victor G. Tsaregorodtsev
Эксперт
Эксперт


Зарегистрирован: 28 Июн 2005
Сообщения: 247
Откуда: Красноярск

СообщениеДобавлено: Вт Июл 10, 2007 11:11 am    Заголовок сообщения: Ответить с цитатой

1. Делается как на обученной сети (вычисляется информативность признаков по "субъективному" мнению сети, обученной решать задачу, т.е. оперирующей с некоторым критерием качества, обычно являющимся целевым и при обучении, и малоинформативные переменные затем отбрасываются с дообучением сетки), так и без всякой сети (те же самые коэффициенты корреляции как меры силы линейности связи, парные условные энтропии как меры наличия нелинейной связи, и т.д. - есть куча алгоритмов, позволяющих выявить информативные переменные и отсеять шумовые и дублирующие).

2. Или методом тыка (ручками), или генетическими алгоритмами (тоже, фактически, методом тыка). Степень целенаправленности такого случайного поиска будет в обоих случаях зависеть от компетенции пользователя, наличия нужных индикаторов "адекватности" сети в софте и возможности эти индикаторы как-то задействовать в ген.алгоритме.

Общую же задачу учета априорной информации о связях между объектами и о свойствах объектов можно попробовать решать с помощью идей и методов, относящихся к области "гибридизации" нейросеток и методов работы со знаниями - по английски эти научные направления называются в общем случае (т.е. без упора на нейросетки) knowledge insertion (внесение знаний в нейросетку) и knowledge refinement (уточнение знаний - сумма knowledge insertion и knowledge extraction, т.е. вставка знаний и извлечение откорректированных сеткой в ходе ее обучения знаний). Вряд ли какой софт из доступных Вам такое реализует Smile
_________________
neuropro.ru - нейронные сети, анализ данных, прогнозирование
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Вт Июл 10, 2007 1:26 pm    Заголовок сообщения: Ответить с цитатой

Цитата:

Вряд ли какой софт из доступных Вам такое реализует


Ладно, это пусть будет мечтой…


Мне известен базовый набор параметров на входе - это я уже сделал «ручками» и с помощью Вашей NeuroPro. Но осталось примерно такое же количество параметров, добавление которых вызывает неоднозначный отклик на выходе, причем видно, что они «работают», но нужна какая-то донастройка.
Возможен ли здесь перебор вариантов из оставшихся входов - вот, собственно, основная задача искомого софта.

А реализованы ли где-нибудь несколько одновременно параллельно обучающихся нейросетей и их синхронизация?
Каждая из сетей может описывать только 1 объект. Каждый объект специфическим образом влияет на выход – например, один явно корреллирует с производной (т.е. скорость изменения тренда), второй – модуль производной, третий – размах колебаний и т.д. Но считаются они «условно раздельно» с последующей сборкой.
[/quote]
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Victor G. Tsaregorodtsev
Эксперт
Эксперт


Зарегистрирован: 28 Июн 2005
Сообщения: 247
Откуда: Красноярск

СообщениеДобавлено: Ср Июл 11, 2007 11:52 am    Заголовок сообщения: Ответить с цитатой

Цитата:
Возможен ли здесь перебор вариантов из оставшихся входов - вот, собственно, основная задача искомого софта

Ну, генетическим алгоритмом... Долго, нет возможности явно учитывать связи между объектами - но как вариант перебора именно комбинаций входов...
Еще способ - посмотреть на конструктивные алгоритмы построения структуры сети (наподобие сетей каскадной корреляции). Можно будет обучать нейроны (получающие на свой вход те или иные переменные - уже задействованные или еще не задействованные "входы", промежуточные сигналы сети, выходные сигналы сети) для уменьшения ошибки при аддитивной (или суперпозициональной) коррекции выхода сетки таким нейроном, среди набора просмотренных нейронов выбирать наилучшего и наращивать им сеть, затем выполнять очередную итерацию процесса генерации нейронов, их сравнения по эффективности и модификации сети. Но, опять же нельзя учесть инфомацию о связях между объектами.

Цитата:
А реализованы ли где-нибудь несколько одновременно параллельно обучающихся нейросетей и их синхронизация?
Каждая из сетей может описывать только 1 объект

Чаще всего встречалась противоположная задача - декомпозиция задачи на подзадачи (где каждой подзадаче соответствовал нейромодуль, а также был некоторый "управляющий" этими модулями блок). Композиция сеток тоже вроде делалась (я не следил за этой темой), но я не понял тут Ваше слово о "синхронизации" сеток. Если они работают в дискретном времени - то вроде ничего синхронизировать не надо, а надо декоррелировать ошибки сетей (для целей последующей "сборки", когда над сетками надстроится еще одна сеть, пусть даже редуцированная до сумматора).
_________________
neuropro.ru - нейронные сети, анализ данных, прогнозирование
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Ср Июл 11, 2007 8:14 pm    Заголовок сообщения: Ответить с цитатой

Пока что мне порекомендовали NeuroShell 2 и BioComp для текущих задач.


Цитата:

Чаще всего встречалась противоположная задача - декомпозиция задачи на подзадачи (где каждой подзадаче соответствовал нейромодуль, а также был некоторый "управляющий" этими модулями блок). Композиция сеток тоже вроде делалась (я не следил за этой темой), но я не понял тут Ваше слово о "синхронизации" сеток. Если они работают в дискретном времени - то вроде ничего синхронизировать не надо, а надо декоррелировать ошибки сетей (для целей последующей "сборки", когда над сетками надстроится еще одна сеть, пусть даже редуцированная до сумматора).


(синхронизация не в математич. смысле. – это можно забыть.. Embarassed )

Если композиция делалась, то должно быть возможно в случае нескольких нейромодулей анализировать управляющей сетью связи между исходными модулями (они же объекты). Параметры связей подавать на входы управляющей сети вместе с выходами от других.
А управляющая инициирует корректировку алгоритмов обучения «нижних» сетей.
Это все делать можно, если есть обучающее множество для каждой отдельной сети, которое (множество) должно быть производным (не только в мат. смысле) от основного – того, для предсказания которого все и делается (т.е. его основные матем. характеристики)
Я понимаю, что это задачка кажется непростой, но трудно поверить, что таковой софт не создавался.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Victor G. Tsaregorodtsev
Эксперт
Эксперт


Зарегистрирован: 28 Июн 2005
Сообщения: 247
Откуда: Красноярск

СообщениеДобавлено: Чт Июл 12, 2007 10:15 am    Заголовок сообщения: Ответить с цитатой

Цитата:

Если композиция делалась, то должно быть возможно в случае нескольких нейромодулей анализировать управляющей сетью связи между исходными модулями (они же объекты). Параметры связей подавать на входы управляющей сети вместе с выходами от других.
А управляющая инициирует корректировку алгоритмов обучения «нижних» сетей.
Это все делать можно, если есть обучающее множество для каждой отдельной сети, которое (множество) должно быть производным (не только в мат. смысле) от основного – того, для предсказания которого все и делается (т.е. его основные матем. характеристики)
Я понимаю, что это задачка кажется непростой, но трудно поверить, что таковой софт не создавался.


Ну, если можно как-то соединить воедино все обучающие множества, чтобы в каждый паттерн входили одновременно сигналы для всех сеток + сигналы для управляющей + сигналы о связях между объектами для управляющей, то подойдет прога с развитым ручным конструктором-редактором нейросетевой структуры, где можно будет "нарисовать" в виде единой сети соответствующие модулям сетки плюс управляющую, раскидать входные сигналы на нужные сетки (взамен того, чтобы на каждый нейрон входного слоя каждой модульной сетки приходили все входные сигналы), повесить в нужные места (не только на выход управляющей сетки, но и внутрь сети на выходы сеток-модулей) функции-критерии для обучения, и затем обучать такую макросеть.
Вот только какой софт это позволит сделать?... Smile
_________________
neuropro.ru - нейронные сети, анализ данных, прогнозирование
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
_next_
Участник форума
Участник форума


Зарегистрирован: 11 Май 2006
Сообщения: 46

СообщениеДобавлено: Чт Июл 12, 2007 7:28 pm    Заголовок сообщения: Ответить с цитатой

Finder писал(а):

А реализованы ли где-нибудь несколько одновременно параллельно обучающихся нейросетей и их синхронизация?
Каждая из сетей может описывать только 1 объект. Каждый объект специфическим образом влияет на выход – например, один явно корреллирует с производной (т.е. скорость изменения тренда), второй – модуль производной, третий – размах колебаний и т.д. Но считаются они «условно раздельно» с последующей сборкой.


Такая топология носит название "модульной".
_________________________________
.. например гибридно всё сделать - поделить на главные компоненты, каждый из которых пропустить через собственную сеть из вертикально-синхронизированных, ассоциативная память которых в свою очередь динамически переплетается с другими слоями, выходы этого всего опять поделить на главные компоненты...

.. виноват, молчу Smile
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Пт Июл 13, 2007 9:13 pm    Заголовок сообщения: Ответить с цитатой

Хорошо (если попроще), а как можно уйти от вот такой ситуации (реальной).
При обычном счете все поля попадают фактически "в единый бульон". Если мне, например, доподлинно известно, что несколько вх. полей коррелируют ТОЛЬКО с одним другим полем, а уж их синтез далее влияет на тренд вкупе с оставшимся - как быть?
Возможно тогда считать последовательно (не одновременно) - сначала отдельной сетью подгонять эти поля (под итоговый тренд, - что тоже не очень-то правильно), затем выходное поле после просчета добавлять к остальным на вход в итоговую сеть. И затем по-новой сначала. Но на это уйдет уйма времени, так как сети считают не параллельно.

Просто интересно - наверняка у многих подобные вещи возникали, как их решали?
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Сб Авг 18, 2007 5:57 pm    Заголовок сообщения: Ответить с цитатой

Victor G. Tsaregorodtsev писал(а):
Цитата:


Вот только какой софт это позволит сделать?... Smile


Виктор, а Ваши программы вообще продаются? На сайте нет указаний на это. Если да, то возможно ли узнать цены.
Есть нарастающая потребность в нейросетевом конструкторе, обеспечивающим возможность моделирования разных топологий подачи входных сигналов (на разные модули нейронов) и разных операций с нейронными модулями во внутренних (скрытых) слоях.
Не обнаружил это ни в одной программе, которые были мне доступны.
(NeuroShell, BioOptimiser, NeuroSolution и пр. другие)
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Victor G. Tsaregorodtsev
Эксперт
Эксперт


Зарегистрирован: 28 Июн 2005
Сообщения: 247
Откуда: Красноярск

СообщениеДобавлено: Вс Авг 19, 2007 10:06 am    Заголовок сообщения: Ответить с цитатой

Finder писал(а):
Виктор, а Ваши программы вообще продаются? На сайте нет указаний на это. Если да, то возможно ли узнать цены.


Нет, реализую-передаю только конкретное решение конкретной задачи. Что-то более универсальное (например, в плане возможности обучения нейросеток самим пользователем) - только при сильно узкой нише такого софта (из-за специфичности задачи, например, или при интеграции со специфическим железом).
_________________
neuropro.ru - нейронные сети, анализ данных, прогнозирование
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Чт Авг 23, 2007 3:12 am    Заголовок сообщения: Ответить с цитатой

Victor G. Tsaregorodtsev писал(а):
Finder писал(а):
Виктор, а Ваши программы вообще продаются? На сайте нет указаний на это. Если да, то возможно ли узнать цены.


Нет, реализую-передаю только конкретное решение конкретной задачи. Что-то более универсальное (например, в плане возможности обучения нейросеток самим пользователем) - только при сильно узкой нише такого софта (из-за специфичности задачи, например, или при интеграции со специфическим железом).


Но вот на Вашем сайте сказано как раз об универсальном софте (если я не глючу).
У меня тут получился интересный тест. Пришлось анализировать среднюю выборку – около сотни полей и 12000 записей. Так вот взял NeuroShell Predictor и после него то же в NeroPro. Просто рядом не лежит. NeroPro выдал очень похоже на то промежуточное, что я искал c количеством нейронов по слоям 50 – 30 - 20 в отличие от Predictora, который доводит число нейронов до 150.
За то долгое время, которое прошло с появления NeroPro очевидно появился более мощный русский софт. Но не на рынке, видимо.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Victor G. Tsaregorodtsev
Эксперт
Эксперт


Зарегистрирован: 28 Июн 2005
Сообщения: 247
Откуда: Красноярск

СообщениеДобавлено: Чт Авг 23, 2007 11:58 am    Заголовок сообщения: Ответить с цитатой

Универсальное - имелось в виду, что сам основной инструмент, с помощью которого решаю задачи, уже имеется и поволяет без дополнительного программирования проходить не менее 70-80% этапов разведочного анализа данных, анализа реализуемости и рабочих экспериментов.
А вот заказчику - не сам инструмент, а полученный с его помощью результат (или сильно уж ограниченные задачей инструментальные средства, чтобы ни шагу влево, ни шагу вправо)

Насчет сравнения софта не понял Sad Кто лучше, кто хуже и по каким критериям?
_________________
neuropro.ru - нейронные сети, анализ данных, прогнозирование
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Чт Авг 23, 2007 8:17 pm    Заголовок сообщения: Ответить с цитатой

Victor G. Tsaregorodtsev писал(а):
Универсальное - имелось в виду, что сам основной инструмент, с помощью которого решаю задачи, уже имеется и поволяет без дополнительного программирования проходить не менее 70-80% этапов разведочного анализа данных, анализа реализуемости и рабочих экспериментов.
А вот заказчику - не сам инструмент, а полученный с его помощью результат (или сильно уж ограниченные задачей инструментальные средства, чтобы ни шагу влево, ни шагу вправо)


Понятно.
Скажите, а реализованы ли алгоритмы сжатия входных данных по ограниченным классам ВХОДОВ.
Например: есть 5 объектов и у каждого 100 параметров. Т.о. на входе - 500 полей.
На выходе 3 тренда. Ищем 5 последовательностей (т.е. сжимаем каждые 100 входов до 1 промежуточного соответственно объекту) , которые своей комбинацией наилучшим образом описывают эти 3 тренда + мнение сети о недостающей последовательности (т.е. того, что будучи поданным на вход в дополнении к имеющимся даст идеальное решение).
Таким образом в дальнейшем на других выходах не будет необходимости подавать 500 входов - достаточно синтезированых 5 + направление поиска дальнейшей точности.


Цитата:
Насчет сравнения софта не понял Sad Кто лучше, кто хуже и по каким критериям?


Лучше NeuroPro. Критерии простые: лучшая аппроксимация тренда и степень совпадения на экзаменационной выборке (в NeuroPro это названо тестированием) при сопоставимом количестве нейронов.
У предиктора скорость выше, но это совершенно не важный параметр.
Справдливости ради надо отметить NeuroShell 2 в части МГУА. Там были очень любопытные результаты, например практически 100 % попадание определения значимости входов вплоть до того, что практически была выполнена сортировка по всем входным объектам (о которых сеть не знала - на входе для нее каша из их характеристик). Если бы этот метод был программно доведен до совершенства - это было бы действительно нечто (сейчас там ограничения + глюки).
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Victor G. Tsaregorodtsev
Эксперт
Эксперт


Зарегистрирован: 28 Июн 2005
Сообщения: 247
Откуда: Красноярск

СообщениеДобавлено: Сб Авг 25, 2007 8:55 am    Заголовок сообщения: Ответить с цитатой

Finder писал(а):
Скажите, а реализованы ли алгоритмы сжатия входных данных по ограниченным классам ВХОДОВ.
Например: есть 5 объектов и у каждого 100 параметров. Т.о. на входе - 500 полей.
На выходе 3 тренда. Ищем 5 последовательностей (т.е. сжимаем каждые 100 входов до 1 промежуточного соответственно объекту) , которые своей комбинацией наилучшим образом описывают эти 3 тренда + мнение сети о недостающей последовательности (т.е. того, что будучи поданным на вход в дополнении к имеющимся даст идеальное решение).
Таким образом в дальнейшем на других выходах не будет необходимости подавать 500 входов - достаточно синтезированых 5 + направление поиска дальнейшей точности.

Не совсем понял тут задачу и проблему.
Методы компрессии - либо классическая проекция в пространство наиболее информативных главных компонент, либо методы отбора информативных признаков из так называемой filter-группы (выполняющие отбор признаков ДО построения какой-либо прогнозирующей или классифицирующей модели). Последние сейчас активно применяются в задачах data mining, т.е. вполне тянут гигантские (и по размерности пространства признаков, и по числу примеров выборки) по объему базы данных. Если входов сильно больше, чем примеров - то в 2003 году было специальное соревнование по разработке-выбору методов feature selection как раз для этих ситуаций - по итогам издали книжку http://clopinet.com/fextract-book/, а презенташки участников доступны на http://clopinet.com/isabelle/Projects/NIPS2003/

Т.е. вполне можно решать задачу выбора переменных или сжатия данных для каждого отдельного "входного" класса (т.е. поднабора входов сети) - возможности есть, противоречий нет. Но вот как учесть при сжатии каждого класса "пожелания" о точности прогноза и информацию от других классов - вопрос. Остается м.б. только переходить к wrapper-методам выбора информативных признаков, т.е. с учетом самой прогнозирующей модели (учим сетку на всем наборе входов, затем отстреливаем у нее малоинформативные входы и получаем возможности тестировать новые ситуации на малом числе входов). Но тут идет именно отсев шумовых и дублирующих входов и нет возможности объединения нескольких исходных переменных в одну (как при использовании проекции на пространство главных компонент, где сетка хоть и будет получать малое число входов, но чтобы ей эту выжимку подготовить - придется всегда использовать весь набор исходных переменных).
_________________
neuropro.ru - нейронные сети, анализ данных, прогнозирование
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail Посетить сайт автора
Finder
Новый посетитель
Новый посетитель


Зарегистрирован: 09 Июл 2007
Сообщения: 20

СообщениеДобавлено: Сб Авг 25, 2007 11:44 pm    Заголовок сообщения: Ответить с цитатой

Цитата:
Но вот как учесть при сжатии каждого класса "пожелания" о точности прогноза и информацию от других классов - вопрос. Остается м.б. только переходить к wrapper-методам выбора информативных признаков, т.е. с учетом самой прогнозирующей модели (учим сетку на всем наборе входов, затем отстреливаем у нее малоинформативные входы и получаем возможности тестировать новые ситуации на малом числе входов). Но тут идет именно отсев шумовых и дублирующих входов и нет возможности объединения нескольких исходных переменных в одну (как при использовании проекции на пространство главных компонент, где сетка хоть и будет получать малое число входов, но чтобы ей эту выжимку подготовить - придется всегда использовать весь набор исходных переменных).


Жизнь подсказала такой "нематематический" вариант решения. Использовать выходы как настройку.
Допускаем (по сути предмета моделирования), что несколько выходов описываются несколькими классами (наборами) входов. Собираем сеть так, чтобы с выходными нейронами были связаны только несколько нейронов пред. слоя по количеству входных классов. И при этом отсекаем все синапсы между входными классами на всех уровнях, оставляя только связи внутри классов. Т.е. вх.классы пересекаются только в слое "сборки" перед выходами и его нейрон суть "выход класса". Т.о. получается что-то типа нескольких пересекающихся сетей (или модулей), хотя фактически сеть одна, прямая и ее можно обучить.
Крайне вероятно, что после обучения классы будут выдаваться на нейронах ("выходах класса") фактически сжатые до одной последовательности (просто снимаем сигнал с нейрона класса) тем точнее, если априори известны отношения или связи между классами, что учитывается при их суммации до подачи на выходы. Между "выходами классов" и конечными выходами может быть любое количество слоев и нейронов.
И в этом случае не нужна предварительная селекция малоинформативных входов - это должно произойти автоматически при обучении. Чем больше разных обучающих гарантированносвязанных со входами выходов , тем точнее можно выполнить сжатие.

Мне не под силу смастерить пока такой серъезный перформ Very Happy ) (простенький делал - с 2 входными классами (выверенные даные и известное отношение - простое деление) и одним выходом - результаты подтвердили предположения ).
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
yabixoruy
Участник форума
Участник форума


Зарегистрирован: 05 Июл 2018
Сообщения: 83

СообщениеДобавлено: Пт Июл 06, 2018 11:06 am    Заголовок сообщения: Ответить с цитатой

http://formacvideo.com/seksualnye-bryunetki/ порно видео сексуальные брюнетки дрочить бесплатно
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Показать сообщения:   
Начать новую тему   Ответить на тему    Список форумов neuroproject.ru -> Другие задачи Часовой пояс: GMT + 4
Страница 1 из 1

 
Перейти:  
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах


Rambler's Top100 Rambler's Top100