GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.52 (112)
<<
< Пред.
|
След. >
>>
Поиск:
Автор
Тема: На: 3
Траян
Сообщений: 1063
На: 3
Добавлено: 03 мар 18 5:39
Цитата:
Автор: rrr3
Нелинейность (разрывность) вместе с увеличением неопределенности не дадут делать сколько бы значимый (достаточно достоверный) прогноз через "ступньку"...
Если не понятно, просто не берите в голову, пройдите мимо, можно и удалить.
Да нет, все по делу, затронуты довольно глубокие, серьезные и правильные вещи, но ответить сходу (как и NO про вероятность вероятностей и Хмуру по затронутой им теме) не смогу. Надо кое-что обдумать.
Да и предыдущую тему про горизонт все же хотелось бы закончить - там я подвожу к некоему логическому завершению.
[
Ответ
][
Цитата
]
NO.
Сообщений: 10700
На: 3
Добавлено: 03 мар 18 6:07
Про вероятности вероятностей наверно можно построить какой-то аналог проблемы остановки и потроллить теоретиков.
вот близкая задачка как правильно перевести на русский
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 03 мар 18 8:26
Цитата:
Автор: Траян
Ему почему-то идея суммирования (подкреплений) на бесконечности не понравилась сразу. Я тогда находился в фазе низкоуровневого рассмотрения проблематики СИИ и в рамках этого рассмотрения пытался как-то привинтить бесконечный горизонт к СПИ. Но за месяц попыток так ничего и не получилось - легко догадаться почему.
Вопиющую нестыковку приведенных выше рассуждений (ну какая экономия ресурсов на бесконечном горизонте может быть?) я тогда решил тупо проигнорировать. Точнее говоря, предположил, что этот нюанс можно будет обойти за счет применения моделей с регулярностями (трендами и цикличностями), что дало бы возможность минимизировать расходы на вычисление пределов бесконечных рядов (пусть и за счет ограничения типов моделей).
Но что мне во всей этой затее не понравилось, так это обилие сложнейших математических выкладок, а значит, необходимость наделения такого простенького агента таким сложнейшим и тяжеловесным математическим модулем. Практически Матлабом.
)0
Ну не должно такого быть. Скажем, в живых организмах мат. выкладки если и производятся (напр. при подсознательных подсчетах вероятностей) то они проводятся не в аналитическом виде, а в аналоговом. Напр. за счет моделирования массовых процессов (напр. переносов ионов через клеточную мембрану). А тут такая тягомутень с последовательными расчетами.
Нет, решил я, такого быть не может - и отложил эту тему до поры.
С течением времени фаза низкоуровневого рассмотрения постепенно сменилась фазой высокоуровневого (о чем я отписался на форуме). И в рамках этого рассмотрения решение проблемы нашлось довольно быстро.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 03 мар 18 8:44
Изменено: 03 мар 18 9:27
Занимаясь позорным делом онтоложества, т.е. составляя список высокоуровневых знаний априорно закладываемых в агента как-то само собой вспомнилось, что глобальной целью агента в "Одном подходе..." является получение макс. положительных подкреплений (соотв. минимума отриц.)
за время его существования (жизни).
Вот и все. Пазл сложился. Два-три дня ушло на отшлифовку идеи. Перепробовав несколько вариантов, остановился на том, чтобы при прогнозирование производить суммирование до того момента, когда вероятность существования агента становится меньше некоторой наперед заданной величины М. А на каждом шаге величина подкрепления вычисляется как произведение p(r)*p(m).
Если вероятность гибели агента со временем растет линейно (вероятность его гибели на каждом шаге равна какой-то одной величине) , то мы получаем классическую формулу RL со членом-гамма дисконтирующим получаемое подкрепление. на n-ом шаге равном гамма в степени n/
Получается так, что линейного развития старой программы СПИ не будет. Сложность следующей программы будет увеличена скачкообразно, как минимум сразу на порядок, иначе никак. Там без ступеньки не обойтись, постепенная эволюция не прокатывает.
Зато уж на этом следующем этапе у агента появится возможность оперировать таким абстрактным понятием как "смерть". Неважно, что поначалу знания содержащие это понятие будут представлены в процедуральном, а не декларативном виде.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 03 мар 18 8:51
[quote]
Автор: гость
... немного странно выглядит изложение, когда эта идея подается как снизошедшее откровение.
/quote]
Одно дело когда идея совмещения теоретического с практическим подается в отвлеченном, достаточно абстрактном виде. Совсем другое, когда вырабатывается рабочая схема. Могущая послужить основой для практического применения.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 04 мар 18 0:07
Изменено: 04 мар 18 2:14
Цитата:
Автор: гость
> "вероятностями вероятностей" (байес).
да, трояныч не очень дружит с условными вероятностями...
Да ну куда уж мне.
(
Цитата:
Автор: NO.
У Байеса не вероятности вероятностей. Есть вероятности случаев, а там случаи вероятностей, это ещё не вероятности вероятностей. У него p*p, а вероятность вероятности p(p)
Вы упускаете из вида то обстоятельство, что возможны различные интерпретации вероятности входящей в формулу Байеса. Если Вы откроете свою любимую Википедию, то узнаете, что существует по меньшей мере две таких интерпретации - частотная (это про эту Вашу "вероятности случаев") и доверительная, из которой исходил сам Байес (вероятность измеряет уровень доверия).
Сейчас я расскажу одну прикольную историю.
Нужно сказать, что когда нам в универе давали формулу Байеса, то давали ее именно в частотной интерпретации. Благополучно сдав теорвер и закончив физфак я через некоторое, причем, довольно продолжительное время заинтересовался проблематикой СИИ. Сравнительно быстро поняв, что ключевым моментом этой проблематики являются 1. проблема индуктивного вывода; 2. проблема вероятностного прогнозирования, т.е. проблемы создания и применения адекватных знаний на опытных данных, решил попробовать создать некое общее правило с помощью которого можно было бы предельно объективным и четким образом получать новые или корректировать старые прогностические знания. Объективным и четким - значит, без математики и статистики не обойтись.
Нужно было некое универсальное правило, способное корректировать прогностические вероятностные знания.
А про формулу Байеса я к тому времени напрочь забыл (?).
/Не совсем правильное утверждение.
правильнее сказать не забыл - а о возможности ее приложения не подумал, как-то мне показалось, что она к другому относится - это, судя по всему, именно однобокая частотная интерпретация сбила с толку - как и сейчас сбивает и вводит в заблуждение людей пытающихся ознакомиться с БМП/
Смешно и стыдно конечно, но факт остается фактом. Ну и в попытке создания этого самого коррекционного правила я ее заново "переоткрыл"
).
Но что примечательно, при этом переоткрывании я шел именно по пути самого Байеса (т.к. исходил из субъективной интерпретации понятия вероятности), а не по той трактовке его формулы, которая была создана позднее. Как я сейчас понимаю, в своих построения я во многом повторил ход рассуждений самого Байеса (а не тех позднейших трактовок, что были созданы в новое время). Возможно, что и термин "гипотезы" по отношению к исходной полной группе несовместных событий используется именно как отголосок представлений самого Байеса.
(это мое предположение).
Возможно и то, что если бы не нашло на меня тогда затмение, не забудь я тогда про современные трактовки Байеса - и БМП мне не удалось бы создать.
Сейчас приведу эти свои тогдашние построения.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 04 мар 18 1:19
Изменено: 04 мар 18 1:52
Пусть A - некое случайное событие.
Вероятность появления этого события P(A) нам неизвестна. Изначально мы можем лишь строить предположения/догадки/
гипотезы
(!!!) о том, что ему присуща та или иная вероятность (то или иное ее конкретное значение).
Пусть H - это некий набор таких предположительных утверждений о различных дискретных значениях возможной вероятности.
Заранее мы не знаем, какое из этих утверждений окажется истинным, а какое ошибочным. Мы можем лишь приписывать каждому из этих утверждений предположительную вероятность того, что именно оно является истинным: Pi(Hi).
Ясно, что если утверждения H закрывают всю область в принципе возможных значений вероятности события A, то H образует полную группу несовместных событий (поскольку они предписывают для А разные значения вероятности истинным может быть лишь одно из них).
Ну а дальше можно идти или как обычно, т.е. использовать известный прием - то что вероятность совместного события P(AHi) может быть выражена через условные вероятности двумя разными способами. Такое двоякое представление дает:
P(AHi)=P(A|Hi)P(Hi)=P(Hi|A)P(A)
ну и так далее, как в учебниках.
PS Хотя я доказывал по другому, опять же ближе к Байесу и Монте-Карло.
PPS Теперь понятно откуда при субъективной интерпретации берется "вероятность вероятности" - это сокращенное представление о вероятности утверждения предписывающего вероятность.
Если P(Hi) - вероятность гипотезы предписывающей вероятность для А, то получим P(Phi(A))
PPPS Как можно видеть, при такой интерпретации байесовское обучение агента происходит за
счет того, что вероятность истинности одних знаний увеличивается, а других - уменьшается.
Именно такая модификация знания позволяет агентам производить рутинную коррекцию моделей мира.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 04 мар 18 1:29
Изменено: 04 мар 18 2:19
Цитата:
Автор: Траян
Заранее мы не знаем, какое из этих утверждений окажется истинным, а какое ошибочным. Мы можем лишь приписывать каждому из этих утверждений предположительную вероятность того, что именно оно является истинным: Pi(Hi).
Если мы заранее вообще НИЧЕГО не знаем о вероятности события А (случай tabula rasa агента), то мы, естественно, должны исходить из того, что это может быть любая вероятность в диапазоне от 0 до 1. Т.е. количество исходных гипотез-предположений является бесконечным и каждому из этих предположений мы должны предписывать равные вероятности dp=Pi(Hi). И далее вылазит тот простенький интеграл, который когда-то вогнал NO в жестокий ступор.
Байесовскую вероятность получаемую на таких основания (в совокупности образующих принцип максимальной непредвзятости) я предложил называть объективизированной байесовской вероятностью.
Кстати говоря, если хотите понять как она работает - очень бы рекомендовал написать прогу ее считающую (пусть и приблизительно, аппроксимируя интеграл суммой). Сразу многое станет ясно. Хотя, в принципе, я и сам могу ее быстренько набросать и выложить если кому интересно.
[
Ответ
][
Цитата
]
Обыватель
Сообщений: 250
На: 3
Добавлено: 04 мар 18 1:33
А Вы с постулатом Хебба, случайно не знакомы?
[
Ответ
][
Цитата
]
гость
188.170.75.*
На: 3
Добавлено: 04 мар 18 2:24
Т.> Да ну куда уж мне
да ладно, мало у нас тут болезненных самолюбий, чтобы и подколки не распознавать..
вот выше был пример с предсказанием буквы по двум предыдущим АВx, разве оценка Р(х|АВ) как Р(x|АY)+Р(x|В) (где Y любая буква) не смещена?
[
Ответ
][
Цитата
]
Михайло
Сообщений: 2366
На: 3
Добавлено: 04 мар 18 2:45
Вероятность и вообще теория вероятности предполагают, что об исследуемом объекте известны некоторые строгие вещи. Самая главная из них - что в последующий момент объект отреагирует также как реагировал до этого. В реальной жизни это присутствует, но не всегда. Иногда [вероятностные] модели ломаются. И вообще в условиях неопределённости нет никаких моделей, они заменяются гипотезами.
[
Ответ
][
Цитата
]
Обыватель
Сообщений: 250
На: 3
Добавлено: 04 мар 18 3:39
И хотя, мне Ваш подход близок и понятен, как и подход Хмура и PavelZX, что в общем-то одно и тоже. И от части (в которой нет бреда) перекликается с подходом старого маразматика Валентина, но он этого не поймёт - не дано ему.
Но такой подход имеет предсказательную силу только в теории, на практике он не работает.
исходник С#
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 04 мар 18 3:45
Цитата:
Автор: Обыватель
А Вы с постулатом Хебба, случайно не знакомы?
Очень поверхностно. Мне в правилах Хебба не нравится органически присущий им субъективизм. Который, в частности, проявляется в достаточно произвольном выборе правил изменения весов.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 04 мар 18 4:04
Изменено: 04 мар 18 4:16
Цитата:
Автор: гость
...вот выше был пример с предсказанием буквы по двум предыдущим АВx, разве оценка Р(х|АВ) как Р(x|АY)+Р(x|В) (где Y любая буква) не смещена?
Конечно же смещена. Так никто и не говорит, что БМП дает точные значения вероятности. БМП - это паллиатив, попытка найти золотую середину между затратами ресурсов и точностью прогноза. Она дает приближенные значения хотя бы потому, что в ней используются не полные описания испытаний, а всего лишь их модели.
Р(х|АВ), конечно же, дает намного более точное значение, но ведь и вычислительных ресурсов для обеспечения возможности его применения придется потратить несравненно больше. Если для однобукновенного прогнозирования, т.е. применения моделей испытания вида Р(х|АY) или Р(х|BY) необходимо выделить всего два массива по 256 строк с двумя столбцами,
то для обеспечения возможности применения двухбуквенных моделей Р(х|АВ) придется выделить уже 256*256 таких массивов. Экспоненциальный рост. А рост точности - близкий лишь к линейному (?? - хотя в линейности я не уверен).
PS Если исходить из того, что интеллект - это способность преодолевать комбинаторную стену с минимальными потерями (в точности, результативности), что интеллект - это не идеальное управление, а всего лишь
наилучшее при имеющихся возможностях
, то системы БМП это шаг к интеллекту.
PPS Впрочем, БМП может быть использован не только как средство экономии ресурсов. Он еще незаменим и тогда, когда обучающие выборки очень малы. Скажем если текст очень небольшой, то хорошую статистику для двухбуквенных сочетаний физически набрать не удастся.
[
Ответ
][
Цитата
]
Траян
Сообщений: 1063
На: 3
Добавлено: 04 мар 18 4:11
Изменено: 04 мар 18 4:17
Цитата:
Автор: Обыватель
Но такой подход имеет предсказательную силу только в теории, на практике он не работает.
исходник С#
Блин. Какой ужас!
Только на днях выкладывал результаты применения БМП при анализе текстов - полностью подтверждающие ее работоспособность.
Я уж не говорю про старенькую программу СПИ прекрасно справляющуюся с моделированием процессов выработки условных рефлексов.
PS Не знаю, когда до этого руки дойдут, но хорошо бы выложить и примеры применения БМП при анализе графиков (предсказания их продолжений). Т.е. по сути дела, некий принципиально новый метод проведения технического анализа.
Тока боюсь местные горе-трейдеры затопчут.
[
Ответ
][
Цитата
]
Стр.52 (112)
:
1
...
48
49
50
51
[52]
53
54
55
56
...
112
<<
< Пред.
|
След. >
>>
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net