GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.5 (5)<< < Пред.   Поиск:  
 Автор Тема: На: Обратное распространение ошибки
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Обратное распространение ошибки
Добавлено: 02 авг 08 17:04
Цитата:
Ну во-первых, MLP с дробными числами работает.

Всегда работал. И розенблаттовский алгоритм обучения персептрона (вернее, порогового нейрона) тоже всегда мог работать с дробными числами на входе.

Цитата:
То что увеличивается срок обучения, еще не говорит о том, что сеть вообще не обучается.

Ничего не увеличивается. Для компа и для нейроалгоритмов ОТСУТСТВУЕТ КАЧЕСТВЕННОЕ отличие чисел этих двух категорий (целые и рациональные+иррациональные). Естественно, я тут подразумеваю ситуацию, когда даже целые числа будут обрабатываться в регистрах и командами мат.сопроцессора (а не в целочисленных регистрах общего назначения проца).

Скорее, проблемы если у кого и возникали, то только из-за неправильной нормировки данных (для одной задачи, с целыми числами, некоторая схема предобработки-нормировки оказалась оптимальной, а для другой - с дробными - оказалась неоптимальной потому, что поменялись ДИАПАЗОНЫ или РАСПРЕДЕЛЕНИЯ значений данных). Но это же совсем другое дело.


------------------------------------------------------------------------------------------------------
www.neuropro.ru - нейронные сети, анализ данных, прогнозирование
[Ответ][Цитата]
daner
Сообщений: 4593
На: Обратное распространение ошибки
Добавлено: 03 авг 08 13:13
>>>Victor G. Tsaregorodtsev
А как же одно из... не знаю как это назвать... советов по применению (так что ли).
Что входящие и выходящие вектора должны иметь как можно более дальнее расстояние по хеммингу? Мне кажется, что это одна из причин, почему с 0,1 работать удобнее чем с 0.05,0.02.... Это с одной стороны, а с другой, сама по себе сигмоидная область определений тоже примерно в единичном диапазоне (ну т.е. та область в которой значения наиболее разнятся), и это делает большие значения не очень эффективными. Поэтому, как мне кажется бинарные или даже биполярные вектора наиболее подходящии.
Разве не так?
[Ответ][Цитата]
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Обратное распространение ошибки
Добавлено: 03 авг 08 16:06
Я писал о том, что у обоих вариантов нейросеток нет привязки к типам данных на входе сети (т.е. и целочисленку, и плавучку они скушают).

Насчет хэмминга... Тождественное отображение y=x будет с нулевым хэммингом (или любой иной метрикой) и что - это самая проблемная функция для аппроксимации MLPшкой? Естественно, я предполагаю, что после нормировки (или исходно) обе переменные лежат в интервале, близком к единичному ([0,1] или [-1,1] или около того)

Биполярность лучше по сравнению с униполярностью - да, правильно, но это по другим причинам (по влиянию на скорость и сходимость обучения, а не на саму принципиальную возможность распознавания).


-------------------------------------------------------------------------------------------------------
www.neuropro.ru - нейронные сети, анализ данных, прогнозирование
[Ответ][Цитата]
tac
Сообщений: 2601
На: Обратное распространение ошибки
Добавлено: 04 авг 08 3:46
Цитата:
Автор: Victor G. Tsaregorodtsev
Я писал о том, что у обоих вариантов нейросеток нет привязки к типам данных на входе сети (т.е. и целочисленку, и плавучку они скушают).


Что значит скушают ?
То, что эти два варианта нейросеток можно попробывать обучить на непрерывных данных - да можно. НО по крайней мере для перцептрона Розенблатта тогда не гарантируется сходимость (т.е. чтобы "класс перцептронов, для которых существует решение для любой классификации возможных сред, не являлся бы пустым"). Для бинарных данных, опять же только для перцептрона Розенблата такая сходимость гарантируется и доказана.

Но как я понял, для MLP с обратным распространением никто себя не отягачает необходимостью такого схождения "для любой классификации" ... Но если бы кто нибудь это захотел бы доказать, то необходимым, но не достаточным условием было бы - необходимость в бинарных входах ! - и только как следствие, этого скорость схождения была бы более быстрой и вообще возможной, в отличии от случая с непрерывными данными.

Как пишет Розенблат если вход может принимать больше двух значений (т.е. непрерывность),то необходимо, выделять различные комбинации входных сигналов и подавать их на отдельные группы из А-элементов, т.е. обеспечить "РАСПРЕДЕЛЕНИЯ значений данных" но на следующем (среднем) слое - что не гарантируется алгоритмом обратного распространения (по крайней мере это не доказано).

[Ответ][Цитата]
tac
Сообщений: 2601
На: Обратное распространение ошибки
Добавлено: 04 авг 08 3:56
Цитата:
Автор: Victor G. Tsaregorodtsev

Скорее, проблемы если у кого и возникали, то только из-за неправильной нормировки данных


Существует ли универсальный способ нормировки данных ? Если да, то какой ? кроме бинаризации, который и есть такой универсальный способ нормировки ...
[Ответ][Цитата]
Эгг (остерегайтесь подделок, у меня > 5907 сообщений)
Сообщений: 508
На: Обратное распространение ошибки
Добавлено: 23 янв 15 21:56
О, мудрейший из мудрейших!
Мы, конечно, все выучили ещё в школе такие ОЦЕНОЧНЫЕ ПОНЯТИЯ, как "Хорошо" и "Плохо".
Но применяем их осторожно, только когда у нас есть аргументы.
Вы же научились так ловко жонглировать всего одной Категорией "Плохо", пряча аргументы в карман, что это вызывает у нас непередаваемое восхищение Вашим артистизмом.
Не уходите надолго, не лишайте нас удовольствия.
[Ответ][Цитата]
 Стр.5 (5)1  2  3  4  [5]<< < Пред.