GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.13 (26)
<<
< Пред.
|
След. >
>>
Поиск:
Автор
Тема: На: Управление агентами
daner
Сообщений: 4633
На: Управление агентами
Добавлено: 10 окт 09 15:22
>>> Oldfella Walk
из ваших двух первых постов после моего предыдущего, я так и не понял какая принципиальная проблема не дает вам объединить поиск игровой стратегии и обучение рефлексам. Еще раз повторю, кем определяется среда, считаю не принципиальным для данного обсуждения. Соответственно, либо награда вырабатывается в зависимости от поставленной самим агентом для себя цели, либо в связи с целью навязанной агенту, либо в связи с обстоятельствами самой среды. Технически цель одна, максимизация ожид. награды (суммы наград за серию действий), а практически, конечно, она зависит от источника целей (т.е. кто их задает). Но как видите, на части алгоритма которые работают только с наградами и утилитами (т.е. при переходе к теории принятия решений) это уже не существенно. Хотя согласен, тема это очень и очень важная (и меня она очень интересует, т.е. интересует как автоматизировать самоопределение наград, т.е. само-постановка целей).
[
Ответ
][
Цитата
]
daner
Сообщений: 4633
На: Управление агентами
Добавлено: 10 окт 09 15:57
QUOTE's Автор: Oldfella Walk
------Мотивацию моделировать проблема? Ха-ха...
Другого я и не ждал... Впрочем, у Данера может быть другая точка зрения - во всяком случае, критерии он имитирует - к параметрам сводит... Тоже интересно: когда к параметрам сводится негативный критерий, это я могу понять. Но как свести к параметрам позитивный критерий - это выше моего разумения.
вы правы, у меня другое мнение.
Что-то я совсем не понял, а какие проблемы с позитивными критериями?
------Ещё бы кто-то всеръёз пытался смоделировать мотивацию - сначала придётся смоделировать память. А с этим пока никак... Даже гипотез плохоньких, частных нету...
И какие проблемы с памятью? что-то я не понимаю, что вы под этим термином понимаете вообще?
------Прогноз смоделировать, обходя моделирование памяти, можно в принципе - но, ясный день, нужна модель внешней среды. Насколько удачно сымитирована среда - настолько нелимитирована удачность прогноза. Чем слабее модель среды - тем грубее прогноз.
------Программисту надо морщить репу, высиживая модель среды. Все модели среды, что я
до сих пор видел - в мультиагентах - проще чем то, что в детсадиках на стенах рисуют.
это называется абстрагирование. Высокая абстракция модели , не всегда приводит к огрублению прогноза. Но вообще-то хочу заметить, что при усложнении модели (не оправданном) вы можете оказаться в намного в худшем состоянии. Например вы вообще можете не составить никакого прогноза (времени высчитать его не хватит) или же делаете не верный прогноз, что на много хуже грубого.
-----В отношении поведения и его стратегии... Я стратегию понимаю по фон Нейману, по теории игр... Чтобы начать искать в поведении стратегии, надо сначала элементарно выяснить, рискует ли то, чьё поведение изучается, или только приспосабливается? Насчот гидры я сильно сомневаюсь найти стратегию в её поведении - у неё же НС нецентральная, она ж даже регенерируется? Откуда информация для стратегии - из ДНК?
А какая разница откуда информация о стратегии? ДА -- из ДНК. Чем это мешает стратегии? От того, что сама по себе гидра не осознает этого, стратегия не перестает быть стратегией.
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Управление агентами
Добавлено: 10 окт 09 18:06
Цитата:
Автор: Oldfella Walk
Ну дак игде же риск? Переход в более вероятное состояние - это же адаптация. Я же пишу - голое приспособление, никакого риска. Нет риска - нет игры (в данном случае - со средой), нет игры - нет стратегии. Ну?
Риск совершенно не обязателен для стратегии ! И именно о задачи адаптивного управления и идет речь. Есть поведение - есть стратегия и ВСЕ ! Риск это нечто опять связаное с мотивацией - что совершено не нужно.
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 13:05
Цитата:
Автор: daner
>>> Oldfella Walk
Соответственно, либо награда вырабатывается в зависимости от поставленной самим агентом для себя цели, либо в связи с целью навязанной агенту, либо в связи с обстоятельствами самой среды. Технически цель одна, максимизация ожид. награды (суммы наград за серию действий), а практически, конечно, она зависит от источника целей (т.е. кто их задает). Но как видите, на части алгоритма которые работают только с наградами и утилитами (т.е. при переходе к теории принятия решений) это уже не существенно. Хотя согласен, тема это очень и очень важная (и меня она очень интересует, т.е. интересует как автоматизировать самоопределение наград, т.е. само-постановка целей).
Я пока не понял, отличается ли Ваш подход от основной идеи ТФС П.К.Анохина. Пока что Ваша "поставленная самим себе агентом цель" для меня ничем не отличается от "акцептора действия", а "награда" - ничем не отличается от "полезного приспособительного результата"...
Переход к "исследованию операций", "принятию решений" автоматически предполагает выбор, без выбора это не принятие решений, а что-то попроще... Как я понял, выбор Вы делаете по позитивному критерию. Иначе наф он вообще нужен, а Вы его симулируете... Так?
Но выбор по позитивному критерию, попросту говоря, "хорошо", не сочетается с риском, риск при таком выборе теряет смысл... Это моё личное мнение.
Нет риска - нет игры, нет неопределённого исхода. Это, как мне кажется, известно сильно до меня и уже давно классика?
Но если нет неопределённого исхода, если исход определённый, заданный... Тогда не нужна информация... Не нужны стратегии... Это опять моё мнение.
"Само-постановка целей" - это один из аспектов мотивации. Если, как настаивает Так, отказаться от симулирования мотивации, значит - также отказаться от "само-постановки целей". То есть - тупо засимулярить жменю программ плюс монте-карло. По-моему, это делали уже многие... Не слышал про обнадёживающие результаты...
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 13:21
Цитата:
Автор: tac
Риск совершенно не обязателен для стратегии ! И именно о задачи адаптивного управления и идет речь. Есть поведение - есть стратегия и ВСЕ ! Риск это нечто опять связаное с мотивацией - что совершено не нужно.
Ну так бы сразу и сказали: "я играю защиту Каро-Канн, и вы мне не мешайте!" Тоже мне, фраузаурих...
Это очередная вариация бонгардовских аниматов? Да? Или вы всё-таки не хотите попасть в длинный джэкэсс-лист? Ну почитайте Редько, Бурцева, Жданова - всё, чего они добились, там описано. Не густо...
На кой чёрт городить огород, если адаптивное управление пальцем симулируется - обратной связью? Вся морока - реальные цели, т.е. модель среды. Ну? Безо всякой памяти, наф возню с информацией? Ну позамыкайте цепи О.С. через модель среды, ну смонтекарлайте гомеостаты. Что сложного нарисовать свой автомат-гомеостат?
[
Ответ
][
Цитата
]
daner
Сообщений: 4633
На: Управление агентами
Добавлено: 12 окт 09 14:00
QUOTE's Автор: Oldfella Walk
------Я пока не понял, отличается ли Ваш подход от основной идеи ТФС П.К.Анохина.
Я не знаком с его работами и думаю что в ближайшее время не буду с ними знакомиться (не из-за пренебрежения, а просто из-за не хватки времени и других приоритетов). Поэтому, учтите в ваших постах ко мне этот факт и старайтесь либо пояснять, либо не использовать терминологию применяемую только в работах этого автора (если конечно, вы хотите что бы я понял о чем вы пишите).
------ Пока что Ваша "поставленная самим себе агентом цель" для меня ничем не отличается от "акцептора действия", а "награда" - ничем не отличается от "полезного приспособительного результата"...
Не могу прокомментировать ваше высказывание. Не знаю терминов "акцептор" и "приспособительный результат". Если дадите точно определение, возможно я смогу точнее сопоставить их с терминами из теории Обучения с Подкреплением (терминологией которой я и пользуюсь).
------Переход к "исследованию операций", "принятию решений" автоматически предполагает выбор, без выбора это не принятие решений, а что-то попроще... Как я понял, выбор Вы делаете по позитивному критерию. Иначе наф он вообще нужен, а Вы его симулируете... Так?
В данном случае верно. В прочем, ничего не мешает делать выбор и по негативному критерию. Это важный момент относительно среды вообще, но для агента, это особой роли не играет, он всего-лишь максимизирует полезность своей стратегии (т.е. сумму получаемых наград).
------Но выбор по позитивному критерию, попросту говоря, "хорошо", не сочетается с риском, риск при таком выборе теряет смысл... Это моё личное мнение.
Я не могу понять, что вы подразумеваете под термином "риск". То как я это понимаю, совершенно не мешает использованию позитивных наград. Риск, в Т.Игр есть разница между минимально возможным и желаемым (обычно максимально возможным или мат.ожидаемым) результатом.
------Нет риска - нет игры, нет неопределённого исхода. Это, как мне кажется, известно сильно до меня и уже давно классика?
Вы термин "игра" применяете так же как он определен в Т.Игр? Если да, то не помню, что бы в определении этого термина фигурировал риск.
Цитата:
Определение термина
Игра
в Теории Игр:
Игры представляют собой строго определённые математические объекты. Игра образуется игроками, набором стратегий для каждого игрока и указания выигрышей, или платежей, игроков для каждой комбинации стратегий. Большинство кооперативных игр описываются характеристической функцией, в то время как для остальных видов чаще используют нормальную или экстенсивную форму.
------Но если нет неопределённого исхода, если исход определённый, заданный... Тогда не нужна информация... Не нужны стратегии... Это опять моё мнение.
Исход не обязательно должен быть не определенным или еще как-то там. Достаточно, что исходов может быть несколько, причем каждый из вариантов имеет разную степень полезности для агента. Таким образом, агенту (если он рационален или стремиться к этому) необходимо подобрать стратегию наиболее выгодную в данной задачи.
Для нашей задачи (и вообще для RL), заранее награды агенту не известны, а так же не известна топология задачи (т.е. исходы применения того или иного действия в какой-либо ситуации), так же возможно (хотя и не обязательно) могут быть не известны заранее состояния и действия применяемые конкретно в этой задачи, но вся область состояний и действий должна быть агенту знакома.
------"Само-постановка целей" - это один из аспектов мотивации. Если, как настаивает Так, отказаться от симулирования мотивации, значит - также отказаться от "само-постановки целей". То есть - тупо засимулярить жменю программ плюс монте-карло. По-моему, это делали уже многие... Не слышал про обнадёживающие результаты...
Во-первых, это вопрос к Tac'у. Во-вторых, относительно мотивации, я считаю, что она есть у рационального агента по определению. Любой
независимый
агент/игрок является self-interested агентом, соответственно его главной мотивацией является максимизация пользы для себя от применения выбранной стратегии (т.е. действий). И это без определения того, кто поставил цель (т.е. определил функцию полезности и определяет награды за действия).
Тут хочу обратить внимание, что я всегда придерживаюсь иерархического подхода к определениям целей. Поэтому, на столько же, на сколько я НЕ вижу смысла в САМО-постановки основной цели агентом, на столько я ДА вижу важность и полезность САМО-постановки промежуточных целей, т.е. способность агента к декомпозиции задачи на подзадачи самостоятельно.
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 15:04
Цитата:
Автор: tac
Не проблема - а нету смысла !
Да, пропустили и вполне осмысленно !
Точнее даже не пропустили, т.к. это подразумвает, что это нужно моделировать - это НЕ НУЖНО моделировать ... скажем так с мотивацией и дурак сделает ИИ, а нам такое и не нужно ... вся задача Ии состоит в том, чтобы это не использовать ... этим и должен отличаться ИИ от ЕИ ... строить копию ЕИ нет ни какого смысла, а вот усилитель для ЕИ в качестве без эмоционального/не мотивированного ИИ - это и есть постановка задачи ...
По общему смыслу: Вы изобретаете то, что называете ИИ, хотя я то же самое - без изменения смысла - называю "отдельные механизмы для человеко-машинных систем". Теоретически пока для таких изобретений известно не всё, что нужно. Поэтому и возможно такое: изобретать, а не "смоделировать, рассчитать и начертить" (это метафора! Я, безусловно, понимаю, что системы с определённого уровня сложности сконструячить полностью невозможно!) В частности, нет теории памяти.
Где взять недописанную теорию? У ЕИ, больше не у кого. Значит, моделировать ЕИ, а когда удастся - "декомпонировать" полученные модели. Полученные "декомпоненты" по очереди "припротезивать" к человекам. И всё вышеперечисленное осуществлять на компах. Т.е. заведомо то и дело упираться темечком в лимиты, установленные компом как неким классом устройств, который сам по себе частная, ущербная модель (потому как не целое, не система - а её часть) некоей системы своего уровня абстракции - здесь 4-го,
"логико-математического" уровня.
ЕИ не надо моделировать? А как понять, что именно смоделировано - если не включать эти отдельные, частные механизмы - хотя бы в теоретическую модель ЕИ? Если даже в "чёрный ящик" поиграть невозможно?
По мне, так сейчас реально изобретать табуретку с интеллектом уровня осла. И политкорректно (инвалидов по квартире носить), и выгодно (вещмешки солдатам)...
А для изобретения сильного ИИ пока ещё вообще ничего похожего на теорию не выдумано...
Насчёт того, что с мотивацией и дурак ИИ изобретёт... Наверняка - изобретёт ЕИ уровня млекопитающего... Потом можно "развинтить" на "протезы", тоже дело небессмысленное - протезировать ДЦП, параличи, незрячих, неслышаших...
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 15:12
[
Ответ
][
Цитата
]
daner
Сообщений: 4633
На: Управление агентами
Добавлено: 12 окт 09 15:27
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 16:02
Цитата:
Автор: daner
А какая разница откуда информация о стратегии? ДА -- из ДНК. Чем это мешает стратегии? От того, что сама по себе гидра не осознает этого, стратегия не перестает быть стратегией.
Может быть стратегия и стратегия. Стратегия ВОТ ЭТОГО организма, которую можно назвать "онтологической", основанная на опыте, приобретённом в течение жизни. Не представляю, чтобы к этому могло быть способно существо, не обладающее хотя бы ЦНС.
И стратегия, которую можно назвать "фенологической". Вопрос в том, чья это стратегия? Определённо - не гидры. Не отдельного существа. Вида-рода-семьи-отряда-царства... Скорее - это стратегия того проявления жизни, которое в этом конкретном воплощении - вот эта гидра И "ВСЕ" ЕЁ ПРЕДШЕСТВЕННИКИ...
В чём тут игра, и кто с кем играет? Думаю, что игра здесь мутация. Неопределённость исхода - неизвестно, как порождённое мутацией новое сочетание признаков (а оно, это ясно, уже существует наперёд - с момента осуществления мутации) скажется на жизни организма. Поскольку скажется не сейчас, а потом...
Что тут выигрышь? Выигрышь - это "продолжение рода", это размножение существа, организм которого - вышеупомянутое "новое сочетание признаков, порождённое мутацией". То есть "выиграть" здесь - означает получить новую генетическую информацию, то ли изменённую, то ли расширенную мутацией.
Животные с ЦНС к естественному отбору добавляют половой отбор. Что принципиально картины не меняет, но ускоряет и усложняет процесс за счёт скрещивания.
"Игру" вышеописанную надо понимать как можно шире, так как "не мутация", т.е. неизменный геном - тоже игра. Как известно из палеонтологии - по данным о вымирании, "не мутация" - худшая стратегия, чем мутация.
Так что в игре, основанной только на информации ДНК, нет и не может быть индивидуального поведения: это всё гораздо проще: среда, геном, анатомия-физиология - и статистика: распределения, вероятности. Сдаётся мне, уже моделировано-перемоделировано - с Менделя...
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 16:28
Цитата:
Автор: daner
Что-то я совсем не понял, а какие проблемы с позитивными критериями??
Проблема одна - материально позитивный критерий существует как другой человек - добрый. И не проще. Как моделировать?
Цитата:
Автор: daner
И какие проблемы с памятью? что-то я не понимаю, что вы под этим термином понимаете вообще?
Это центральный вопрос. Мои представления о памяти достаточно явно расходятся с общепринятыми. Сходимся на том, что память - источник информации.
Поэтому я прошу Вас первым осветить свои представления о памяти.
[
Ответ
][
Цитата
]
daner
Сообщений: 4633
На: Управление агентами
Добавлено: 12 окт 09 16:41
QUOTE's Автор: Oldfella Walk
------Может быть стратегия и стратегия. Стратегия ВОТ ЭТОГО организма, которую можно назвать "онтологической", основанная на опыте, приобретённом в течение жизни. Не представляю, чтобы к этому могло быть способно существо, не обладающее хотя бы ЦНС.
Вот! вот с таким высказыванием согласен.
------И стратегия, которую можно назвать "фенологической". Вопрос в том, чья это стратегия? Определённо - не гидры. Не отдельного существа. Вида-рода-семьи-отряда-царства... Скорее - это стратегия того проявления жизни, которое в этом конкретном воплощении - вот эта гидра И "ВСЕ" ЕЁ ПРЕДШЕСТВЕННИКИ...
И с этим согласен. Это стратегия поведения ВИДА существ "Гидры".
------В чём тут игра, и кто с кем играет? Думаю, что игра здесь мутация. Неопределённость исхода - неизвестно, как порождённое мутацией новое сочетание признаков (а оно, это ясно, уже существует наперёд - с момента осуществления мутации) скажется на жизни организма. Поскольку скажется не сейчас, а потом...
Вся наша жизнь -- ИГРА.
Ну а если ближе к теме. Играми в данном случае являются жизни гидр. Каждая жизнь -- игра с единой не адаптивной стратегией. Если же рассматривать ВИД, то стратегия ВИДА становиться адаптивной и жадной (без планирования). А мутации, это стохастический поиск дополнительных вариантов, для расширения возможностей при оптимизации (естественном отборе).
------Что тут выигрышь?
Смотря с точки зрения кого именно? С точки срения отдельной Гидры? Выигрыш это ее личное удовлетворение + перенос ее личных генов в последующие поколения.
А вот с точки зрения РОДА, согласен что
------Выигрышь - это "продолжение рода".
А вот это
------размножение существа, организм которого - вышеупомянутое "новое сочетание признаков, порождённое мутацией". То есть "выиграть" здесь - означает получить новую генетическую информацию, то ли изменённую, то ли расширенную мутацией.
Это не выигрыш, а стратегия РОДА для получения выигрыша. Так уж получается, что в естественных условиях, именно ГА (подобные) стратегии, являются наиболее успешными (если не единственно возможными).
------Животные с ЦНС к естественному отбору добавляют половой отбор. Что принципиально картины не меняет, но ускоряет и усложняет процесс за счёт скрещивания.
Согласен, что принципиально (в рамках данной дискуссии) ничего не меняет.
------"Игру" вышеописанную надо понимать как можно шире, так как "не мутация", т.е. неизменный геном - тоже игра. Как известно из палеонтологии - по данным о вымирании, "не мутация" - худшая стратегия, чем мутация.
Вот именно, что стратегия. С этим тоже согласен. В прочем, это не сложно и математически обосновать (палеонтология не нужна). Без мутаций и без скрещивания вообще нет ни поиска ни оптимизации, а только с одним скрещиванием происходит скатывание частной стратеги в локальный минимум.
------Так что в игре, основанной только на информации ДНК, нет и не может быть индивидуального поведения: это всё гораздо проще: среда, геном, анатомия-физиология - и статистика: распределения, вероятности. Сдаётся мне, уже моделировано-перемоделировано - с Менделя...
Поведение -- может быть, адаптации -- нет. На счет "проще" не согласен.
[
Ответ
][
Цитата
]
daner
Сообщений: 4633
На: Управление агентами
Добавлено: 12 окт 09 16:48
QUOTE's Автор: Oldfella Walk
------Проблема одна - материально позитивный критерий существует как другой человек - добрый. И не проще. Как моделировать?
Совершенно не понял, что вы хотели этим сказать? Не понимаю выражения "критерий существует как человек".
------Это центральный вопрос. Мои представления о памяти достаточно явно расходятся с общепринятыми. Сходимся на том, что память - источник информации.
Источник для чего? Вообще-то, ИМХО, память скорее хранилище информации, чем источник.
------Поэтому я прошу Вас первым осветить свои представления о памяти.
Я не знаю, что вам освещать... для меня память -- есть все что угодно, что умеет сохранять информацию. Видимо мы с вами совершенно по разному используем данный термин.
[
Ответ
][
Цитата
]
Oldfella Walk
Сообщений: 316
На: Управление агентами
Добавлено: 12 окт 09 17:02
2Daner:
Похоже, что Вы используете игры, как "внешнее" средство моделирования мотивации - внешнее по отношению к модели игрока. Избавляясь от мороки моделирования памяти, вы симулируете способности обладателя памяти - их реализацией, а именно мотивацию - игрой.
Вот почему модель памяти Вам не нужна...
И с прогнозом - так же? А как Вы всё-таки позитивный критерий моделируете - тоже "внешне"?
А как же с информацией? Вы написали: информация от ДНК... Что - И ВСЁ? Неужели для вырабатывания рефлексов (условных, инструментальных) - достаточно только информации от ДНК?
[
Ответ
][
Цитата
]
tac
Сообщений: 2601
На: Управление агентами
Добавлено: 12 окт 09 20:18
Цитата:
Автор: daner
------"Само-постановка целей" - это один из аспектов мотивации. Если, как настаивает Так, отказаться от симулирования мотивации, значит - также отказаться от "само-постановки целей". То есть - тупо засимулярить жменю программ плюс монте-карло. По-моему, это делали уже многие... Не слышал про обнадёживающие результаты...
Во-первых, это вопрос к Tac'у. Во-вторых, относительно мотивации, я считаю, что она есть у рационального агента по определению. Любой
независимый
агент/игрок является self-interested агентом, соответственно его главной мотивацией является максимизация пользы для себя от применения выбранной стратегии (т.е. действий). И это без определения того, кто поставил цель (т.е. определил функцию полезности и определяет награды за действия).
Тут хочу обратить внимание, что я всегда придерживаюсь иерархического подхода к определениям целей. Поэтому, на столько же, на сколько я НЕ вижу смысла в САМО-постановки основной цели агентом, на столько я ДА вижу важность и полезность САМО-постановки промежуточных целей, т.е. способность агента к декомпозиции задачи на подзадачи самостоятельно.
Тогда определимся к тем что такое мотивация ? Если это то как определяет Данер - то пожалуйсто - сколько угодно. Но это не мотивация, не биологическая мотивация ! И этим думаю все сказано ...
"Само-постановка целей" к биологической мотивации не имеет ни какого отношения ...
Но тут нужно уточнить, я заглянул в книгу "Физиология высшей нервной деятельности", и действительно, некоторые примерно так и определяют: "Мотивация - само целенаправленное поведение" и ВСЕ ! Или более развернуто : "Мотивация - это физиологический механизм активирования хранящихся в памяти следов (энграмм) тех внешних объектов, которые способны удовлетворить имеющуюся у организма потребность, и тех действий, которые способны привести к ее удовлетворению."
Но, по мне, это не мотивация ! И не против моделирования ее, т.к. это по сути дела только моделирование "само целенаправленного поведения" - я не имею ничего против.
Поэтому читаем дальше "пока нет согласия между разными авторами в отношении содержания самого термина мотивация", и я присоединяясь к ним говорю, что выше не данно определение мотивации ... и более подходящим для меня является следующие:
"
Эмоционально окрашенное состояние
, возникающие на основе определенной потребности и формирующие поведение, направленное на удовлетворение этой потребности." или более развернуто : "Это состояние, которое развивается в структурах ЦНС во время поведения. Объективно оно выражается в изменении электрической активности мозга, биохимии мозга, в изменениях на молекулярном уровне. В субъективном плане мотивации соответствует появление определенных переживаний - чувство жажды, чувство голода." [как только появляется "субъективный план", с последствиями "переживаний" - СТОП ! ЗАПРЕТИТЬ! ВЫБРОСИТЬ!]
Надеюсь вы отчетливо понимаете разницу между данными определениями. По аналогии с сильным и слабым ИИ, мы может отличать их также первым было приведенно определение слабой Мотивации, последним сильной Мотивации.
Все что я сказал выше относилось только к сильной Мотивации ! Вы же судя по всему говорите о слабой Мотивации ... если это так - то конечно, даже в нашей задаче моделируется слабая Мотивация.
[
Ответ
][
Цитата
]
Стр.13 (26)
:
1
...
9
10
11
12
[13]
14
15
16
17
...
26
<<
< Пред.
|
След. >
>>
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net