Автор: Luаrvik
А каков результат ? |
|
Результаты разные.
Я взял простую задачку. На вход подаётся зашумлённое изображение букв. В ходе обучения, программа должна научится на этих изображениях узнавать буквы.
Если выходов нет, оценку работы программы можно делать по активности нейронов.
Собственно, в качестве результатов по большей части вопросы.
Например, символы «В», «Б», «Г», «Ь», «Е» на сколько-то процентов похожи друг на друга. Что мне требуется добиваться от программы, чтобы она реагировала на похожие объекты или находила только верное решение. Ведь и то, и то по сути верно.
Так же не ясно, как заставить программу оказывать воздействие на среду, по каким правилам должна формироваться связь с эффекторами. Отсюда и проблема со слоям. Если программа не реагирует на раздражители, как понять, что именно в этом слое будет проходить обработка реакции на этот раздражитель.
Ещё один вопрос со слоями, заключается в том, что сетка на первом слое формирует максимально подробное изображение, а значит на примитивном уровне, она будет реагировать на что-то сложное. Это значит, что любая новая информация не будет восприниматься так как не соответствует уже известной. Чтобы этого избежать, сенсоры показывают свою активность только в том случае, если воздействие на них усиливается. Из-за чего изображение на входе не должно быть статичным. Поэтому, изображение зашумлено и хаотично перемещается в фокусе.
Оказалось, что вот этот метод (
http://www.bestreferat.ru/referat-111115.html) можно использовать в качестве пороговой функции нейрона, если его заставить проходить через нулевую координату и ограничить функцией х=y. Такой способ требует ряд особенностей.
Допустим, нейрон после возбуждения, активен какое-то время, например, 10 тактов. То есть всё что подаётся на вход в это время, нейрон использует для своего обучения. Соответственно требуется соблюдать непрерывность информации и держать на входе один символ те же 10 тактов. Это нужно не для создания связей, а для их разрушения.
Но всё же главный вопрос – вопрос с движением агента.