GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.4 (5)
<<
< Пред.
|
След. >
>>
Поиск:
Автор
Тема: На: Проблема угасания ошибки в алгоритме обратного распространен
daner
Сообщений: 4602
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 13:55
Цитата:
Автор: NO.
Да мне не важно что у них там в голове происходит. Умеют классифицировать значит раскладывают на кучки. Не раскладывают значит не умеют.
ну значит расскладывают на кучики (только кучки виртуальные).
вам не кажется, что с кучаками -- несколько примитивный подход?
[
Ответ
][
Цитата
]
daner
Сообщений: 4602
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 14:01
Цитата:
Автор: 3d6
Если показывается некоторая определенная последовательность образов - то можно считать, что предыдущий образ непосредственно связан со следующим.
Если есть сотня гипотез - то нельзя сказать, что предыдущий образ непосредственно связан с одной из них.
{Примечание: статью не читал. поэтому и задаю вопросы.}
А сами образы различаются уже самостоятельно? Кстати, а для чего это надо? Цель этого какая? повысить распознавание образа в зависимости от предыдищего?
Ну... а что в этом такого супер нового? На сколько я знаю, уже давно был написан аллгоритм (и вроде как даже ИНС), который расспознавал фонемы и уточнял их в зависимости от контекста (ну типа чаще встречается "на", чем "яа" и т.д.).
[
Ответ
][
Цитата
]
3d6
Сообщений: 325
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 14:39
Цитата:
Автор: daner
{Примечание: статью не читал. поэтому и задаю вопросы.}
А сами образы различаются уже самостоятельно? Кстати, а для чего это надо? Цель этого какая? повысить распознавание образа в зависимости от предыдищего?
Ну... а что в этом такого супер нового? На сколько я знаю, уже давно был написан аллгоритм (и вроде как даже ИНС), который расспознавал фонемы и уточнял их в зависимости от контекста (ну типа чаще встречается "на", чем "яа" и т.д.).
Статью я еще не выложил, привалило работой, но попробую в ближайшем будущем написать кое-что на тему, кроме собственно файла (опубликованный результат уже успел немного устареть
)...
Идея в том, что запоминается последовательность образов. Каждый отдельно взятый образ распознается в контексте той последовательности, которая сейчас активна (последовательности соответственно тоже распознаются), и все это - в рамках ассоциативной памяти (расширение хопфилдовской архитектуры), с неитеративным обучением (т.е. запоминание с одного показа). Преимущества - контекстно-зависимое восстановление образов из шума с простым обучением, возможность отслеживать разные последовательности (причем с любого места - не обязательно с начала). Недостатки - довольно много вычислительных ресурсов (хотя по нейросетевым меркам - скромно), и дискретность времени (новый образ должен прийти в определенный, довольно узкий период времени, иначе распознавание сорвется). Дискретность в принципе ясно как побеждать, над этим в частности и работаем...
Интересная особенность таких сетей - они способны к самостоятельной активности после того, как внешние стимулы будут отключены, и способны синтезировать гибридные ответы на гибридные входы (т.е. если на входе грубо говоря сумма двух последовательностей, то на выходе при определенных условиях будет нечто, напоминающее сумму ответов на эти последовательности, и если отключить входы - оно будет эволюционировать похожим на сумму образом).
А вот о хорошем контекстном распознавании фонем я не слышал - подход да, рекламировался, но приличные результаты как-то мимо меня прошли... Каких-нибудь ссылок случайно не найдется?
[
Ответ
][
Цитата
]
daner
Сообщений: 4602
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 15:30
понятно. в таком свете интересно. А вы лично, к этой работе какое отношение имеете (если не секрет)?
ссылок нет, но я слушал об этом года 3 назад, причем слышал к о работе, которой лет 5-10... Помню только, что вроде бы как швейцарская фирма там была замешанна (но может быть ошибаюсь). Они правда не на хопфильде делалали, а проверяли контекстную зависимость статистическими методами. Т.е. в два этапа (1:распознавание с ИНС фонемы, 2:выбор наиболее вероятной по контексту).
[
Ответ
][
Цитата
]
3d6
Сообщений: 325
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 18:31
Цитата:
Автор: daner
понятно. в таком свете интересно. А вы лично, к этой работе какое отношение имеете (если не секрет)?
Исходная идея (переход между статическими аттракторными состояниями в рамках динамического аттрактора) была моя, псевдоинверсный алгоритм предложил шеф, я в некоторой мере его адаптировал, ну и вся реализация моя.
Цитата:
Т.е. в два этапа (1:распознавание с ИНС фонемы, 2:выбор наиболее вероятной по контексту).
А, ну про такое я слышал, да. Но вроде достаточно свободного распознавания им сделать так и не удалось?
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 20:51
Цитата:
Автор: Андрей
1. Гипотезы выбираются случайно, наугад.
Это при не-интеллектуальном поиске. А если люди например проводят испытания нового самолета, он на заводе возник совсем не случайно, а после очень трудоемкого проектирования и производства.
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 20:52
Цитата:
Автор: daner
ну значит расскладывают на кучики (только кучки виртуальные).
вам не кажется, что с кучаками -- несколько примитивный подход?
Это просто иллюстрация, что BP-нейросети не имеют никакого отношения к интеллекту. Как и их счастливые обладатели.
[
Ответ
][
Цитата
]
daner
Сообщений: 4602
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 21:02
Цитата:
Автор: NO.
Это просто иллюстрация, что BP-нейросети не имеют никакого отношения к интеллекту. Как и их счастливые обладатели.
IMHO, не удачная иллюстрация.
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 21:26
Цитата:
Автор: daner
IMHO, не удачная иллюстрация.
А все равно ничего не помогает. Нейросети лечит только время. Я сколько раз это видел, эти сети ловят и держат очень надежно. Как в конечном автомате, есть какие-то состояния откуда выход только в нейросети, а оттуда выход только по очень большому и ужасному входящему коду, который отфильтровывается, а маленькие все учтены и снова ведут в нейросеть. Система нейросетевик+нейросеть это автомат, тут даже психиатру нечего делать.
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 21:42
Кстати идея, что нейросети это интеллектуально - тоже гипотеза.
Человек в нее
верит
, и как в любой религии аргументы тут бесполезны. Если у него сложности с тем чтобы ее
проверить
, это надолго или даже навсегда.
[
Ответ
][
Цитата
]
Андрей
Сообщений: 3943
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 22:08
Цитата:
Автор: NO.
А если люди например проводят испытания нового самолета, он на заводе возник совсем не случайно, а после очень трудоемкого проектирования и производства
Всё верно. Сам самолёт - это гипотеза, именно поэтому проводят его испытания, проверку практикой на соответствие ожиданию. А вот технологический процесс его производства - это никакая не гипотеза - это чистое знание, точное, однозначное и ограничивающее.
Я уже приводил пример с завязыванием шнурков. Шевелить пальцами ребёнок умеет - это его знание, алфавит действий (в прошлом - тоже гипотезы), из которых могут собираться разные случайные гипотезы. Но только некоторые из них приводят к тому, что ребёнок ожидает - узел и бантик. Именно поэтому обучение требует время (на перебор и отсев гипотез), именно поэтому шнурки люди завязывают по разному.
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 22:44
Когда ребенок случайно путает шнурки - это интеллект?
[
Ответ
][
Цитата
]
Андрей
Сообщений: 3943
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 11 июл 09 23:01
Вопрос неоднозначен. Что значит "путает"? И в каком контексте.
[
Ответ
][
Цитата
]
кирилл
Сообщений: 3
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 13 июл 09 20:45
Не знаю как потереть оффтоп.
Цитата:
названный stochastic diagonal Levenberg-Marquardt от ЛеКуна
Автор предлагает использовать вместо метода сопряженных градиентов метод Ньютона:
исходное:
новое:
Затем меняет
:
и получает исходный метод с адаптивным параметром
Это здорово, потому что на каждом шаге ищем касательные, но вот здесь, например
http://carbon.videolectures.net/2007/pascal/eml07_whistler/lecun_yann/eml07_lecun_wia_01.pdf
пишут что метод не применим для большого количества слоев. Что вполне ясно, поскольку
описанное в первом посте и имеющее вид
где
остается тем же и на 100-ом слое будет порядка 0.2^100 в лучшем случае. То есть да, stochastic diagonal Levenberg-Marquardt будет давать результат но только на несколько слоев.
Так что пока не тороплюсь с нововведением, потому что считать
трудоемкая задача, многое прийдется перелопатить заново. Вместо того чтобы писать на C++ с классами пишу на C и теперь имею с этого проблемы.
По результатам тестов в программе, домножение
на некоторый коэфициент (пробовал от 3 до 20 при 10 слоях) дает желаемый результат только на несколько обучений. Желаемый результат - чтобы все слои обучались равномерно. Возможно коэфициент надо подбирать на каждом шаге. Дело пока потихоньку движется.
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: Проблема угасания ошибки в алгоритме обратного распространен
Добавлено: 13 июл 09 21:31
Может быть данные такие, что одним слоем хорошо моделируются?
Если данные простые и сеть уже хорошо обучилась, тогда ошибка должна угасать. А одинаково проученные слои будут выполнять просто перекодировку/перестановку, то есть там только одна связь с 1 остальные 0.
Для самых шифрованных данных число нейронов в некотором слое дожно быть 2^число-в-предыдущем. Если у тебя меньше то будет потеря информации, нужны поправки к нормировке.
[
Ответ
][
Цитата
]
Стр.4 (5)
:
1
2
3
[4]
5
<<
< Пред.
|
След. >
>>
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net