GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (8)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Робот-слуга
Yandersen
Сообщений: 351
На: Робот-слуга
Добавлено: 19 авг 16 3:18
Цитата:
Автор: гость
как наложить априори всевозможные ограничения на нежелательные способы удовлетворения потребностей? ухаживая за тяжелобольным робот вдруг придет к идее эвтаназии? а имея мотивом высушить хозяйского котика вдруг догадается поместить его в микроволновку..
Ну а человека что удерживает от принятия подобных решений? Знание о нежелательных последствиях, к которым такие действия приведут (испытание негативных эмоций, что неизбежно взбесит мотиватор). Хм, а ведь действительно, стоит задуматься: выходит, прогнозирование запросов мотиватора и стремление их избежать - всё же необходимая фича интеллекта!
[Ответ][Цитата]
гость
78.25.123.*
На: Робот-слуга
Добавлено: 19 авг 16 3:41
поэтому не стоило удалять сообщение про риск разработки робота-слуги из 'первых принципов'. требования гибкости поведения и 'отсутсвия свободы воли' (т.е. запрет на неконтролируемую вторичную мотивацию) противоречивы и некоторые способы разрешения этого противоречия могут быть высокорискованными.
[Ответ][Цитата]
Yandersen
Сообщений: 351
На: Робот-слуга
Добавлено: 19 авг 16 3:49
Изменено: 19 авг 16 3:51
Лично меня брюзжание о гипотетических рисках совсем не колышат. Хорошо осознавать, что риск есть. Но повод ли это останавливаться и бояться попробовать? Да ни за что! Если знать КАК сделать такой ИИ, да лень отключить, то риски уходят на второй план. На последний план вапще, ессчесна. А не, вапще за кадр прячутся эти риски, насрать 100%.
[Ответ][Цитата]
гость
78.25.123.*
На: Робот-слуга
Добавлено: 19 авг 16 4:10
причем тут 'брюзжание'?? это лишь напоминание, что нужно соотносить постановку задачи с целями. Грубо говоря, из 'первых принципов' вы не получите 'слугу'. дрессируя раба с достаточными потенциями 'метакогниции' вы просто породите проблемы на свою задницу.
[Ответ][Цитата]
Андрей
Сообщений: 3943
На: Робот-слуга
Добавлено: 19 авг 16 4:17
Цитата:
Автор: Yandersen
если волк приближается близко к стаду, срабатывает сенсор и мотиватор требует от И сенсор загасить
избежание появления мотивационных требований - тоже мотивационное требование.
Если заменить термин "мотивационное требование" на "раздражитель", то получим ни что иное, как предложенную 2 года назад рефлекторную теорию интеллекта. Отрадно, что спустя всего 2 года, эта концепция овладевает массами.

Если пользоваться Вашей терминологией, то интересно узнать Ваше мнение по таким вопросам:
1. Одновременно может существовать несколько мотивационных требований, как осуществляется их сортировка, согласование между собой и выбор доминанты?
2. Является ли выбор доминанты задачей сам по себе? Можно ли исходя из опыта научиться выбирать доминанту лучше, или же этот выбор следствие врождённого темперамента?
3. Если мета-задачей интеллекта является "гасить" (уменьшать интенсивность) мотивационных требований (раздражителей), то не кажется ли Вам логичным, что весь жизненный опыт должен храниться исключительно в виде связок (таблиц) между всевозможными мотивационными требованиями и всевозможными способами их гашения (решения)? Это и будет то, что Вы называете "определение закономерностей во входящей информации"? Если нет, тогда что это за закономерности и как они на Ваш взгляд могут быть использованы для "гашения мотивационных требований"?
[Ответ][Цитата]
Yandersen
Сообщений: 351
На: Робот-слуга
Добавлено: 19 авг 16 5:10
Изменено: 19 авг 16 5:31
Цитата:
Автор: Андрей
интересно узнать Ваше мнение по таким вопросам:
1. Одновременно может существовать несколько мотивационных требований, как осуществляется их сортировка, согласование между собой и выбор доминанты?
В этом-то и прелесть задания целей как требуемых показаний отдельных сенсоров: вне зависимости от количества целей требованием является достижение определённой сенсорной картины, где значения части сенсоров не имеют значения (нецелевые сенсоры), а другой части - описаны (целевые). Т.е. требуемое от интеллекта решение - приведение сенсорной картины в требуемый вид. Это может быть невозможно впринципе, и тогда И не сможет удовлетворить мотиватор, как и в случае с недостатком опыта; решение не будет найдено, действий предпринято не будет.
Цитата:
Автор: Андрей
2. Является ли выбор доминанты задачей сам по себе? Можно ли исходя из опыта научиться выбирать доминанту лучше, или же этот выбор следствие врождённого темперамента?
Опять же, нет никакого выбора и приоритета. Решение либо есть для всех целей, либо лишь части, либо ни для каких целей. Достижение определённых целей может быть взаимоисключающим (действия, необходимые для достижения одной цели противоречат достижению другой - в таком случае решения нет для обоих), может быть недостаточно опыта для нахождения решения для тех или иных целей, некоторые цели могут быть недостижимы впринципе при текущих обстоятельствах. Интеллект не обязан удовлетворять мотиватор при любых условиях - от него требуется лишь пытаться этого достичь, если возможно.
Цитата:
Автор: Андрей
3. Если мета-задачей интеллекта является "гасить" (уменьшать интенсивность) мотивационных требований (раздражителей), то не кажется ли Вам логичным, что весь жизненный опыт должен храниться исключительно в виде связок (таблиц) между всевозможными мотивационными требованиями и всевозможными способами их гашения (решения)? Это и будет то, что Вы называете "определение закономерностей во входящей информации"? Если нет, тогда что это за закономерности и как они на Ваш взгляд могут быть использованы для "гашения мотивационных требований"?
"...если интеллект обнаружил, что сенсор А определённым образом зависит от сенсора Б, и сенсор А назначен целевым, то целевое изменение А можно интерпретировать как требование изменения значения сенсора Б. И если подконтрольный функционал способен влиять на Б, то решение очевидно. Примитивный пример чисто для наглядности."

Но на практике такой простой зависимости прямо вот сразу между входными сенсорами не будет. Очевидно, интеллекту придётся выделять второстепенные абстракции (паттерны изменения сенсорной информации), соответствующие воздействиям объектов или событий реального мира на сенсорный аппарат. Функционально, такие абстракции - такой же набор сенсоров, но присутствующий уже внутри интеллекта. Скорее всего, лишь на этом уровне станут различимы какие-то устойчивые зависимости между ними.
[Ответ][Цитата]
Андрей
Сообщений: 3943
На: Робот-слуга
Добавлено: 19 авг 16 6:52
Цитата:
Автор: Yandersen
вне зависимости от количества целей требованием является достижение определённой сенсорной картины
Эта идея ясна и в целом не вызывает существенных возражений. Однако, в топике заявлено "робот-слуга", а не "триггер-слуга" или "одношаговый-робот-слуга", поэтому хочется обсуждать что-то более-менее приближенное к реальности. А в реальности у человека(слуги) не бывает одной комплексной цели, которая учитывала бы сразу все достаточные требования к рецепторам. Обычно случается, что вот этих "целевых сенсорных картин" (или "образа потребного будущего", как говорит Бернштейн, или "акцептора результата действия", как говорит Анохин) несколько и они, как правило, противоречат друг другу. Поэтому при более детальном рассмотрении вопрос менеджера задач становится актуальным. Простой пример, хозяин даёт роботу-слуге задачу: "Собирай малину". При этом робот видит, что надвигается гроза и сбор малины под дождём может привести к поломке. Как ему поступить?
Собирать малину, ибо задача хозяина превыше всего.
Отказаться от задачи хозяина, ибо самосохранение превыше всего.
Обратиться за уточнением к хозяину.
Убить хозяина, чтоб не ставил глупые задачи.

Я вижу два варианта решения:
1. Ввести в рассмотрение менеджер задач, к интеллекту как к таковому не относящийся, который будет сортировать задачи по некоторому фиксированному "врождённому" алгоритму и исполняться интеллектом будет только верхняя доминантная задача. Ну например, ввести рецепторы боли/радости и оценивать прогноз для каждой задачи. Для какой баланс лучше - ту и поднимать наверх.
2. Сортировку задач сделать одной из постоянных задач, которые робот-слуга постоянно решает исходя из опыта. Но тогда вылезают всякие непонятные "бока" вроде: как сортировать задачи в самый первый раз; как решать какая задача важнее в данный момент - задача собственно сортировки или выполнение доминантной задачи; как определить что задачи отсортированы хорошо (т.е. что будет "требуемой сенсорной картиной" для этой задачи); какой жизненный опыт нужно запоминать для решения задачи сортировки.

Можно, конечно, отморозиться от этих и других детальных вопросов но тогда поясните, как Вы видите продолжение данного топика.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Робот-слуга
Добавлено: 19 авг 16 7:44
Цитата:
Автор: Андрей
Я вижу два варианта решения:...

Вероятно из Вас получится не плохой робот-слуга.
А если нет к этому желания, то видимо придется создавать такой робот, который сам будет вырабатывать и накапливать опыт того, что важнее в данный момент. Это конечно не исключает того, чтобы какую-то элементарную иерархию делать "врожденной", но принципиальное решение в "адаптивном" ядре робота, а не во врожденных иерархиях "инстинктов" или иерархиях "акцепторов результатов". Как ни крути, а придется создавать AGI..., ну или все заранее решить за робота на все обозримые случаи жизни, а ему оставить только "исчисление" (исполнение) готовых решений.
[Ответ][Цитата]
гость
78.25.121.*
На: Робот-слуга
Добавлено: 19 авг 16 7:47
Y.> требованием является достижение определённой сенсорной картины

это как бы в основе, но за пределами чисто перцептивного агента появится та трудность, что описание целевой ситуации будет даваться в абстрактных терминах - типа 'помоги в данной ситуации поставить мат' - ведь заранее не известно какой сенсорной картине будет соответсвовать целевое состояние.
[Ответ][Цитата]
гость
78.25.121.*
На: Робот-слуга
Добавлено: 19 авг 16 8:19
вообще тут есть и аспект логических трудностей при построении модальных систем (напр. систем долженствования и т.п.). Я должен служить хозяину. Я должен самосохраняться (это в прошивке менее приоритетное требование). как быть если робот признает жертвенность (чтобы послужить нужно поломаться) плохим служением (мотивационное развитие до стадии что должен служить хорошо)? но чтобы хорощо послужить нужно не выполнить первичную задачу служения..
[Ответ][Цитата]
Yandersen
Сообщений: 351
На: Робот-слуга
Добавлено: 19 авг 16 14:56
Изменено: 19 авг 16 15:10
Цитата:
Автор: Андрей
в реальности ... не бывает одной комплексной цели, которая учитывала бы сразу все достаточные требования к рецепторам. Обычно случается, что вот этих "целевых сенсорных картин" (или "образа потребного будущего", как говорит Бернштейн, или "акцептора результата действия", как говорит Анохин) несколько и они, как правило, противоречат друг другу. Поэтому при более детальном рассмотрении вопрос менеджера задач становится актуальным. Простой пример, хозяин даёт роботу-слуге задачу: "Собирай малину". При этом робот видит, что надвигается гроза и сбор малины под дождём может привести к поломке. Как ему поступить?
Собирать малину, ибо задача хозяина превыше всего.
Отказаться от задачи хозяина, ибо самосохранение превыше всего.
Обратиться за уточнением к хозяину.
Убить хозяина, чтоб не ставил глупые задачи.

Ну вот в этом конкретном примере цель всё же одна - собирать малину. Размышления об опасном будущем развитии ситуации - это уже прогнозирование возможности возникновения цели "предотвратить намокание" в будущем, так что одновременно обе цели не будут заданы. Правильнее было бы привести пример "Хозяин приказал собирать малину во время дождя". В таком случае робот пошёл бы собирать малину, но попав под дождь, получил бы вдобавок цель "не намокать". При недостатке опыта цели были бы взаимоисключающими и робот просто встал бы как вкопанный - и намок бы, и малину не собрал. Но если бы роботу был известен способ использования зонтика, обе цели были бы достигнуты.
Цитата:
Автор: Андрей
Я вижу два варианта решения:
1. Ввести в рассмотрение менеджер задач, к интеллекту как к таковому не относящийся, который будет сортировать задачи по некоторому фиксированному "врождённому" алгоритму и исполняться интеллектом будет только верхняя доминантная задача. Ну например, ввести рецепторы боли/радости и оценивать прогноз для каждой задачи. Для какой баланс лучше - ту и поднимать наверх.
2. Сортировку задач сделать одной из постоянных задач, которые робот-слуга постоянно решает исходя из опыта. Но тогда вылезают всякие непонятные "бока" вроде: как сортировать задачи в самый первый раз; как решать какая задача важнее в данный момент - задача собственно сортировки или выполнение доминантной задачи; как определить что задачи отсортированы хорошо (т.е. что будет "требуемой сенсорной картиной" для этой задачи); какой жизненный опыт нужно запоминать для решения задачи сортировки.
На мой взгляд, тут Вы слишком далеко абстрагируетесь от предложенного мной базового и примитивного принципа работы интеллекта, рассуждая о производном проявлении свойств полученной системы в целом. Цели могут быть взаимоисключающими в принципе, но могут лишь казаться таковыми при данном уровне опыта (см. пример выше с малиной). Иллюзорное "расставление приоритетов" на самом деле может оказаться результатом синтеза решения, удовлетворяющего обе задачи, и такое решение может быть найдено лишь при наличии соответствующего опыта. Реакция системы, не способной решить поставленную задачу (под задачей будем понимать требуему сенсорную картину, и не важно, из какого количества целей она скомпонована) однозначна - бездействие. Как кролик посреди дороги, не способный решить, куда бежать от машины - влево или вправо.
Цитата:
Автор: Андрей
Можно, конечно, отморозиться от этих и других детальных вопросов но тогда поясните, как Вы видите продолжение данного топика.
Основная проблема, которую нужно решить, чтобы выйти на финишную прямую в создании ИИ, на мой взгляд, - это как сделать тот самый универсальный решатель сенсорной головоломки в Ч.Ящике, который будет вычислять требуемое воздействие на эффекторы, необходимое для приведения входной сенсорной картины в заданный вид. Описать принципы обнаружения и запоминания этим устройством устойчивых образов, встречающихся в сенсорной картине и выделение как можно большего числа и типа закономерностей их взаимоотношений, позволяющих методом индукции использовать этот опыт для приведения сенсорной картины в требуемый вид. На практике это очень сложная и комплексная инженерная задача, и я хз откуда там вапще начать, но надеюсь, если долго мусолить, можно чего-нить и придумать.

Уверен, нейроны тут нипричём и не следует ожидать, что просто при правильно выбранной модели их функционирования группа нейронов "самоорганизуется" и станет выполнять требуемую от нашего Ч.Я. функцию. Нейроны - не панацея, не святой грааль и не мистический ключ к созданию ИИ, это не более чем один из способов реализации, удобный вариант реализации для нашей биологической платформы. Задача решается программным путём, алгоритмами. Это будет П.О., которое нужно спроектировать для выполнения требуемых от Ч.Я. функций.
[Ответ][Цитата]
Yandersen
Сообщений: 351
На: Робот-слуга
Добавлено: 20 авг 16 0:35
Изменено: 20 авг 16 0:43
Ах да, щас только дошло ещё одно простое решение проблемы о сборе малины под дождём, если робот не знает о зонтике - собирать малину после дождя (но это для случая, если робот знает, что дождь - явление врЕменное)!

В обшем виде, для действий, которые интеллекту нужно предпринять для решения задачи, нет временных рамок. Решений может быть ведь несколько, сколь угодно много (чем больше опыта, тем больше вариантов), просто достижение конечного результата может занять различное количество времени для разных способов решения. Очевидно, И должен выбирать то решение, которое прогнозирует получение желаемого результата как можно скорее, а не обязательно прямо вот щас, как только от мотиватора запрос пришёл. Таким образом в нашем примере с малиной и дождём - двинуть в кусты сразу - не вариант, т.к. робот намокнет. А если подождать, пока дождь пройдёт, то задача будет полностью решена для обоих целей.

Но рассмотрим процесс подробнее, в деталях...

Изначально робот получает лишь одну цель - увеличить показатель сенсора наполнения корзинки для малины (для простоты предположиим, что робот у нас такой вот заточенный под сбор малины). Робот ищет решение, которое приведёт к повышению показателя требуемого сенсора:

1) Робот знает, что целевое значение повышается при запуске функции F1 (сбор ягоды) в присутствии абстракции X (куст малины). В текущем состоянии сенсорной картины такой абстракции не наблюдается (робот стоит в ангаре), а значит сенсорная картина должна включать её в себя, поэтому целевая сенсорная картина транслируется интеллектом в новый вид - теперь целью назначается наличие в сенсорной картине абстракции Х (куст малины) и использование при этом функции F1 (сбор ягоды).

2) Робот также знает, что использование функции F2 (движение платформы, приводящее в точку, где находится куст) изменяет сенсорную картину таким образом, что в ней появляется требуемая абстракция Х (куст малины), а значит решением поставленной задачи в данный момент станет использование функции F2 (движение к кусту). При данных условиях это и является требуемым планом действий - активировать функцию F2 (движение к кусту).

Поскольку процесс нахождения решения динамический, то по мере исполнения функции F2 (передвижение к кусту) мотиватор будет продолжать требовать всё ту же цель и интеллект будет продолжать отвечать всё тем же действием до тех пор, пока использование функции F2 не приведёт робота к кусту, где он зарегистрирует абстракцию Х (куст малины), а при этих условиях ответным решением интеллекта будет уже использование функции F1 (сбор ягоды).

Когда корзина наполнится, мотиватор начнёт требовать новую цель - возвращение в ангар (решение - использование функции F3), и интеллект будет его исполнять таким же образом, пока робот не окажется в ангаре; потом разгрузка и т.д. Ну в общем примитивно и понятно, да?

Но так будет в простом случае с ясной погодой. А у нас дождь. При таком стечении обстоятельств вскоре после начала исполнения функции F2 (движение из ангара к кусту) робот начнёт намокать под дождём и мотиватор добавит ему новую задачу: уменьшить показание сенсора намокания (при этом продолжая требовать увеличение показаний сенсора заполненности корзины). Поскольку решением задачи уменьшения намокания является возвращение в ангар (функция F3, т.е. действие, противоположное движению к кусту F2), робот попутно с функцией F2 (движение к кусту) начнёт использовать F3 (возвращение в ангар). Очевидно, использование обоих функций одновременно приведёт к остановке платформы робота.

Как видно, результат работы примитивной реализации интеллекта плачевный - робот тупо встанет под проливным дождём.

Какой фичи интеллекту не хватает, чтобы избежать такого фэйла? Прогнозирования! Т.е. виртуальной обкатки плана действий перед его исполнением, что позволит определить успех (тогда зелёный свет на исполнение сразу) или возможные проблемы. При обнаружении проблем И должен выявить причины, из-за которых требуемый результат не может быть достигнут и переопределить целью их нейтрализацию. Если это невозможно, тогда единственным выходом будет игнорирование мотиватора, полное или частичное (в зависимости от того, какую часть целевой сенсорной картины возможно реализовать).

Из примера видно, что задаваемые мотиватором целевые состояния сенсорной картины интерпретируются интеллектом по-разному в зависимости от текущего состояния сенсорной картины и приобретённого ранее опыта.
[Ответ][Цитата]
гость
78.25.121.*
На: Робот-слуга
Добавлено: 20 авг 16 2:08
[Ответ][Цитата]
r
Сообщений: 837
На: Робот-слуга
Добавлено: 20 авг 16 5:44
Изменено: 20 авг 16 5:46
Цитата:
Автор: Yandersen
Реакция системы, не способной решить поставленную задачу (под задачей будем понимать требуему сенсорную картину, и не важно, из какого количества целей она скомпонована) однозначна - бездействие. Как кролик посреди дороги, не способный решить, куда бежать от машины - влево или вправо.
Не задача состоит из целей, а цель из задач. Предлагаю все же под целью иметь в виду недостижимое состояние мира, а если и достижимое, то как минимум в долгосрочной перспективе. Краткосрочные желаемые состояния лучше называть задачами. Текущие (особо краткосрочные) желаемые состояния (как составная часть задачи) - подзадачами. Цели и задачи могут ставиться как самой системой ИИ, так и поступать извне. А разбиение задачи на подзадачи производится только самой ИИ, на основе собственного опыта.
Другими словами, достижение цели это целый процесс, решение задачи - логически завершенный, обособленный алгоритм, решение подзадачи - выполнение элементарного действия.

В Вики разделение немного отличается, но все одно, цель состоит из задач, а не наоборот.
Цель
Задача

Кролик не знает куда бежать не потому что задача однозначна, а потому что не может достоверно спрогнозировать траекторию автомобиля.
[Ответ][Цитата]
r
Сообщений: 837
На: Робот-слуга
Добавлено: 20 авг 16 6:08
Цитата:
Автор: Андрей
Я вижу два варианта решения:
1. Ввести в рассмотрение менеджер задач, к интеллекту как к таковому не относящийся, который будет сортировать задачи по некоторому фиксированному "врождённому" алгоритму и исполняться интеллектом будет только верхняя доминантная задача. Ну например, ввести рецепторы боли/радости и оценивать прогноз для каждой задачи. Для какой баланс лучше - ту и поднимать наверх.
2. Сортировку задач сделать одной из постоянных задач, которые робот-слуга постоянно решает исходя из опыта. Но тогда вылезают всякие непонятные "бока" вроде: как сортировать задачи в самый первый раз; как решать какая задача важнее в данный момент - задача собственно сортировки или выполнение доминантной задачи; как определить что задачи отсортированы хорошо (т.е. что будет "требуемой сенсорной картиной" для этой задачи); какой жизненный опыт нужно запоминать для решения задачи сортировки.
Однозначно должен быть реализован второй вариант планировщика. Возможно, если хранить все цели-задачи-подзадачи не сплошным списком а несколькими деревьями, то таких проблем будет меньше.
[Ответ][Цитата]
 Стр.2 (8)1  [2]  3  4  5  6  ...  8<< < Пред. | След. > >>