GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.10 (112)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Об одном подходе к решению задачи создания СИИ
Victor G. Tsaregorodtsev
Сообщений: 3187
На: Об одном подходе к решению задачи создания СИИ
+1
Добавлено: 21 фев 17 7:19
Цитата:
Автор: гость
Многослойный персептрон нельзя ДО-обучать, можно только ПЕРЕ-обучить заново

Можно дообучать.
Сейчас в любой сложной задаче MLP и подобные по структуре сетки (свёрточные, глубокие) корректируются именно после просмотра каждого обучающего паттерна. Т.е. на лету. Ну, или после просмотра двух-трёх десятков паттернов - на так называемых мини-батчах.
Никто не гоняет всю обучающую выборку (которая может и десятки, и сотни гигабайт тянуть) для того, чтобы в итоге сделать микрокоррекцию весов.
Т.е. обучение построено именно как постоянное дообучение чему-то новому, а не как работа с некоторой "средней по больнице" целью или таким же "средним" направлением коррекции.

Ну и дообучение в условиях нестационарности задачи (дрейф значений входных сигналов и/или связей между стимулом и реакцией) - тоже делается попримерным обучением, не требуя репрезентативной обучающей выборки для новых ситуаций. Статью ЛеКуна 2012г (ЕМНИП, в общем, ту, где про шаг обучения), например, можно посмотреть - там как раз вычислительный пример с нестационарной задачей.
[Ответ][Цитата]
гость
91.121.77.*
На: Об одном подходе к решению задачи создания СИИ
+1
Добавлено: 21 фев 17 8:20
Цитата:
Автор: Victor G. Tsaregorodtsev


Можно дообучать.
Сейчас в любой сложной задаче MLP и подобные по структуре сетки (свёрточные, глубокие) корректируются именно после просмотра каждого обучающего паттерна. Т.е. на лету. Ну, или после просмотра двух-трёх десятков паттернов - на так называемых мини-батчах.
Никто не гоняет всю обучающую выборку (которая может и десятки, и сотни гигабайт тянуть) для того, чтобы в итоге сделать микрокоррекцию весов.
Т.е. обучение построено именно как постоянное дообучение чему-то новому, а не как работа с некоторой "средней по больнице" целью или таким же "средним" направлением коррекции.

Ну и дообучение в условиях нестационарности задачи (дрейф значений входных сигналов и/или связей между стимулом и реакцией) - тоже делается попримерным обучением, не требуя репрезентативной обучающей выборки для новых ситуаций. Статью ЛеКуна 2012г (ЕМНИП, в общем, ту, где про шаг обучения), например, можно посмотреть - там как раз вычислительный пример с нестационарной задачей.
Это далеко не так, Вы говорите о легендах, домыслах:
Цитата:
А еще ходят легенды, что нейронную сеть можно просто … дообучить и не нужно будет ее заново переучивать на всем объеме данных. На самом деле — нельзя, но всем очень очень нужно и иногда… везет. Если данных достаточно мало и нужно постараться запомнить их как можно больше (не снижая ошибку на тестовом наборе данных, разумеется) – то просто так «дообучить» не «переучивая» без риска что-то важное забыть уже не получится. Нет никакой гарантии, что стохастический градиентный спуск (SGD) запомнив новое, не забудет важное старое ;-) А если данных много (миллионы фотографий например) и требований запомнить именно этот конкретный пример нет — сработает (но молебен не помешает).
source: https://habrahabr.ru/company/bitrix/blog/315484/
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Об одном подходе к решению задачи создания СИИ
+1
Добавлено: 22 фев 17 10:04
Удивительно, никто до сих пор не спросил автора о построении оценки биполярной вероятности в многомерном случае, где и проявляются эффекты ограничивающие применение этой методы обучения.
Придется задать риторический вопрос. Как выглядит оценка в двумерном (n мерном) случае?
[Ответ][Цитата]
Траян
Сообщений: 1063
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 10:39
Изменено: 22 фев 17 10:40
Цитата:
Автор: гость 31.211.0.*
Удивительно, никто до сих пор не спросил автора о построении оценки биполярной вероятности в многомерном случае, где и проявляются эффекты ограничивающие применение этой методы обучения.
Придется задать риторический вопрос. Как выглядит оценка в двумерном (n мерном) случае?


Боюсь я не совсем понимаю суть вопроса. Какую многомерность Вы имеете в виду - ту которая может быть связана с количественным характером условий испытаний и их исходов? Поясните, пожалуйста, свою мысль более развернуто.

"эффекты ограничивающие применение этой методы обучения" достаточно очевидны, но как мне теперь представляется они все же преодолимы.
[Ответ][Цитата]
гость
176.9.136.*
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 10:51
Цитата:
Автор: Траян
Не плюсуйте всем подряд пожалуйста, это выглядит как будто ДРУГИЕ плюсуют и Ваша тема популярна, но это далеко не так, Вы как Александр Кибернетик, который не очень в почете из за того что накрутил также репутацию своей темы про проклятые квадратики, за что многие считют его своим врагом.
[Ответ][Цитата]
Траян
Сообщений: 1063
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 10:54
Хорошо.
Не думал, что это для кого-то так важно.
[Ответ][Цитата]
гость
176.9.136.*
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 11:00
Цитата:
Автор: Траян

Хорошо.
Не думал, что это для кого-то так важно.
Важно, нормально это примерно один плюсик на 10 страниц, если чаще то противоестественно, разве что ели хозяин темы не Лекун или Хинтон, на которых хотят быть похожи все ИИ-шники, особенно Виктор Царегорцев, но увы это не возможно для славянина с СССР.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 11:57
Многомерный случай, когда признаков много, полагаю, что в этом случае искомая вероятность будет стремиться к нулю как 1\n, если я правильно понимаю как это будет работать в многомерном случае.
[Ответ][Цитата]
Траян
Сообщений: 1063
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 12:17
Цитата:
Автор: гость 31.211.0.*
Многомерный случай, когда признаков много, полагаю, что в этом случае искомая вероятность будет стремиться к нулю как 1\n, если я правильно понимаю как это будет работать в многомерном случае.


Спасибо за разъяснение.

Нет, когда признаков много искомая вероятность не будет стремиться к нулю. Суть биполярной вероятности в том, что в ней выявляются и учитываются лишь наиболее важные признаки, т.е. те факторы, влияние которых на вероятность исхода испытания наибольшее.

Правило 1/n в ней вообще не работает, вероятности отдельных моделей испытаний вычисляются совершенно независимо друг от друга.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 12:40
Изменено: 22 фев 17 12:41
Цитата:
Автор: Траян



Спасибо за разъяснение.

Нет, когда признаков много искомая вероятность не будет стремиться к нулю. Суть биполярной вероятности в том, что в ней выявляются и учитываются лишь наиболее важные признаки, т.е. те факторы, влияние которых на вероятность исхода испытания наибольшее.

Правило 1/n в ней вообще не работает, вероятности отдельных моделей испытаний вычисляются совершенно независимо друг от друга.


Хорошо. Допустим, важных признаков N, тогда получим N биполярных вероятностей, по одной для каждого признака, если признаки независимы, итоговая вероятность будет равна произведению N вероятностей, которая будет стремится к нулю как 1\N.

[Ответ][Цитата]
NO.
Сообщений: 10700
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 12:57
Цитата:
Автор: гость
Важно, нормально это примерно один плюсик на 10 страниц, если чаще то противоестественно, разве что ели хозяин темы не Лекун или Хинтон, на которых хотят быть похожи все ИИ-шники, особенно Виктор Царегорцев, но увы это не возможно для славянина с СССР.

А свои сообщения Вы как бы охарактеризовали?
[Ответ][Цитата]
Траян
Сообщений: 1063
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 13:30
Цитата:
Автор: гость 31.211.0.*
Хорошо. Допустим, важных признаков N, тогда получим N биполярных вероятностей, по одной для каждого признака, если признаки независимы, итоговая вероятность будет равна произведению N вероятностей, которая будет стремится к нулю как 1\N.


Нет, все работает совсем не так, как Вы себе представляете.

Цитата:
Автор: гость 31.211.0.*
итоговая вероятность будет равна произведению N вероятностей


Не как произведение, а как средняя по пространству моделей.

Биполярная вероятность проистекает из идеи усреднения прогнозов на исход даваемых отдельными моделями (испытаний). При этом вероятность каждой модели вычисляется абсолютно независимо от других (как будто их вообще нет).

Поэтому отдельная модель может давать вероятности исходов от 0 до 1.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 13:51
Цитата:
Автор: Траян


Не как произведение, а как средняя по пространству моделей.



Звучит, как заклинание.
Признаки бинарные. их пространство N-мерный единичный куб...
Если N велико и бинарные вероятности равномерно и независимо распределены распределены в результате усреднения опять получим 0,5.
[Ответ][Цитата]
Траян
Сообщений: 1063
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 22 фев 17 14:06
Изменено: 22 фев 17 14:13
Цитата:
Автор: гость 31.211.0.*
Признаки бинарные. их пространство N-мерный единичный куб...
Если N велико и бинарные вероятности равномерно и независимо распределены распределены в результате усреднения опять получим 0,5.


Верно, есть такая опасность - нивелировать, затереть вероятность.

Поэтому предлагается использовать для нахождения средней не все модели, а лишь две из них - экстремальные, полярные, диаметрально противоположные друг другу.
[Ответ][Цитата]
гость
78.25.122.*
На: Об одном подходе к решению задачи создания СИИ
Добавлено: 23 фев 17 2:28
Т.> В предлагаемой интерпретации содержится набор правил, позволяющих находить вероятность исхода "нового", т.е. никогда ранее проводившегося испытания, если известны результаты проведения неких других испытаний.

положим, агенту приделан хвост - имея опыт полученния вознаграждения при тестировании возможностей соотв. перемещений вверх-вниз, влево-вправо как агент может догадаться 'выпросить' поощерение вильнув хвостом (т.е. действием с новым параметром)? раз вильнул - не сработало, а вдруг сработает на тройное виляние (еще один параметр)? каковы правила индукции опыта?
[Ответ][Цитата]
 Стр.10 (112)1  ...  6  7  8  9  [10]  11  12  13  14  ...  112<< < Пред. | След. > >>