GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.9 (35)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Андрей
Сообщений: 3943
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 11:39
Цитата:
Автор: siger
Единственное, что он сделал сам, так это сумел использовать в обучении имеющиеся у него к тому моменту знания и навыки
Совершенно верно, при этом ещё, что он сделал - это обращал сознательно своё внимание на предмет, которому учился и (уж совсем автоматически и неосознанно) создавал новые знания (методом тыка!), болванки знаний, заготовки знаний. Как-то так.

Цитата:
Автор: siger
мы и упираемся в эти само_
Я давно заметил, что если мы упираемся в "само", значит мы не заметили какого-то взаимодействия между чем-то и чем-то. Само вообще никогда ничего не происходит, всегда нужна минимум пара чего-то. Надо запомнить простую вещь: поднять себя за волосы - невозможно! С учётом этого определение можно расширить:
интеллект - это механизм образования новых случайных знаний при обучении с учителем для решения задач координации с целью выполнения команд хозяина.

Довольно легко можно обнаружить, рабом чего именно является конкретный человек - своих инстинктов, идеи коммунизма, идеи эволюционизма, идеи создания ИИ, своей жены. Сложность не в том, чтобы сделать из человека исполнительный механизм - он и так им уже является. Сложность часто в том, чтобы сменить хозяина, команды которого выполняет тот или иной интеллект. Собсно поэтому народ и мечтает об ИИ, в надежде, что он-то уж точно будет подчиняться только мне
Поэтому для задачи примитивного ИИ я бы выбрал какой-то простейший манипулятор, простейший рецептор и заставил бы эту машинку связывать простейшие команды и простейшие выполнения, генерируя (отчасти) стохастические знания (механизмы координации, коррекции).
[Ответ][Цитата]
siger
Сообщений: 14
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 12:39
Цитата:
Автор: Андрей
... создавал новые знания (методом тыка!), болванки знаний, заготовки знаний. ...
... Собсно поэтому народ и мечтает об ИИ, в надежде, что он-то уж точно будет подчиняться только мне
Поэтому для задачи примитивного ИИ я бы выбрал какой-то простейший манипулятор, простейший рецептор и заставил бы эту машинку связывать простейшие команды и простейшие выполнения, генерируя (отчасти) стохастические знания (механизмы координации, коррекции).


А Вы исключаете возможность построения в "кибернетическом мозгу" _всего_ множества возможных решений поставленной задачи и выбора в некотором смысле оптимального из них?

По поводу "само": хотим мы или нет, но нам, так или иначе, приходится мериться с этими "само", так как мы не в состоянии заметить и понять все "взаимодействия между чем-то и чем-то". В идеале, конечно хотелось бы от них полностью отказаться и познать все "загадки" окружающего нас мира.

Не пора ли выбрать предметную область, в которой будет "жить" проектируемая система с ИИ? )

[Ответ][Цитата]
Кирсоф
Сообщений: 1206
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 12:43
Цитата:
Автор: siger

может так:
интеллект - это механизм образования новых знаний при обучении с учителем для решения задач самокоординации и координации с целью выполнения команд

или договориться подразумевать это


В Системном Анализе под Интеллектом какого-либо Объекта понимается, прежде всего, СИСТЕМА ПОВЕДЕНИЯ ОБЪЕКТА.
[Ответ][Цитата]
Андрей
Сообщений: 3943
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 12:53
Цитата:
Автор: siger
Вы исключаете возможность построения в "кибернетическом мозгу" _всего_ множества возможных решений поставленной задачи и выбора в некотором смысле оптимального из них?
Такая сумасшедшая мысль меня не посещает уже лет 10, с тех пор как я попытался разработать оптимальный алгоритм игры в шахматы и понял, что человек принципиально играет приблизительно но с иерархическим критерием качества, чем и спасается от комбинаторного взырва (и во всех других задачах тоже).
Вашу идею можно будет оживить после создания квантовых компьютеров, а пока следует быть реалистом.

Цитата:
Автор: siger
приходится мериться с этими "само", так как мы не в состоянии заметить и понять все "взаимодействия между чем-то и чем-то"
Смирение здесь состоит в том же самом угадывании. Если мы не можем научиться делать ИИ по эталонному образцу, явно подражая деталям, то мы вынужденны эти детали выдумывать сами, постоянно сверяясь с тем, насколько это похоже на правду, сможет ли это работать. В этом и состоит трудность задачи. В темноте наощупь собирать пазл.

Цитата:
Автор: siger
Не пора ли выбрать предметную область, в которой будет "жить" проектируемая система с ИИ?
Это должно быть что-то предельно простое. Мне нравится игра "Пятнашки". Её можно сократить до "Пятёрок". А начинать надо с обучения передвигать фишку из точки А в точку Б. Кто первый честно научит робота просто двигать пальцем по команде - станет мегагуру ИИ.
[Ответ][Цитата]
siger
Сообщений: 14
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 13:26
Цитата:
Автор: Андрей

Такая сумасшедшая мысль меня не посещает уже лет 10...


Андрей, а Вы не знакомились с работой Дж.Бэкуса "Можно ли освободить программирование от стиля фон Неймана?"? (где-то в сети есть) В ней в том числе предлагается некий прообраз алгебры программ, которая помогает понять и доказывать факты о программах формальными методами. Естественно под термином "программа" можно (следует) понимать большее. Ценное зерно в данной работе есть, но как-то все не собирусь духом переложить это на практику. Но для простенькой системки может и стоит попробовать...

Цитата:
Смирение здесь состоит в том же самом угадывании.


Ну это естественный момент ), когда мы не знаем ответа, то отдаемся в руки случая

Цитата:
Автор: Кирсоф


В Системном Анализе под Интеллектом какого-либо Объекта понимается, прежде всего, СИСТЕМА ПОВЕДЕНИЯ ОБЪЕКТА.


Кирсоф, ранее мы условились сформулировать _достаточное_ определение для создания демоверсии ИИ (во всяком случае возражений пока не последовало) Поэтому, предлагаю считать, что понятие "механизм образования новых знаний..." входит в "СИСТЕМУ ПОВЕДЕНИЯ ОБЪЕКТА"

Можете предложить свое определение, если Вас не устраивает сформулированное выше. Но стоит помнить, чем "заумнее" оно будет, тем дольше пройдет времени до "пробы пера" в создании макета
[Ответ][Цитата]
kcrotor
Сообщений: 402
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 13:30
Цитата:
в его конструкцию не было внесено ни единого бита о выживании вида

Этот робот был запрограммирован на выполнение команд. Эта его программа и есть те самые биты.
Цитата:
Вы эту "тонкость" понимаете?

Видимо нет.
Цитата:
Как же его интеллект работал на принципах выживания вида, если эти принципы не были внесены в его конструкцию??

Его конструкцией предусмотрено выполнение команд. Это и есть принципы выживания.
Цитата:
На самом деле, и это кричаще очевидно, к выживанию вида стремился тот робот, который не выполнил команду - выживание вида было внесено в его конструкцию

Очевидно что этот робот стремился к собственному выживанию, а не выживанию вида.
Цитата:
Какой умный робот, просто волшебный! А ведь он даже не знал, что его вид существует и что он его спас...
...
А тот робот, который выиграл, знать ничего не знал ни про какое выживание и ни про какой вид, а стремился только выполнить команду.

Вы путаете стремление к выживанию и осознание этого стремления. Чтобы стремится к чему-то вовсе не обязательно это осознавать.
Давайте на конкретном примере рассмотрим откуда берется "альтруизм" и покажем что для его возникновения отдельной особи вовсе не обязательно что-либо знать о других. Проведите такой эксперимент: наловите 100 мух и посадите каждую в отдельную ячейку (коробочку, бутылочку) полностью изолировав таким образом от остального мушиного сообщества (чтобы ни одна муха не дай бог не увидела что вы будете делать с остальными). Все дальнейшие операции над мухами (кормить, спаривать и т.п.) вы должны производить так чтобы исключить какой бы то ни было контакт между особями. Назовем 100 мух в отдельных ячейках исходным состоянием.
Теперь разделите 100 мух случайным образом на две равные группы (по 50 особей).
Затем получите от каждой мухи потомство (по две личинки от каждой. Не забывайте что каждую из личинок нужно будет вырастить в полной изоляции). В итоге у нас имеется две группы по 50 мух и 100 личинок в каждой. А теперь давайте смоделируем гибель вида из-за неальтруистичности его представителя. Выбирите одну из мух (любую, случайным образом) и посветите на нее фонариком (или сделайте любое другое действие, заметное для мухи и в обычных условиях безвредное для нее), и если она не умрет - перебейте (можно с особой жестокостью, остальные мухи ведь всё равно ничего не видят) всю её группу, а за одно и всех мух в другой группе, они нам больше не понадобятся (оставьте только личинок из другой группы). А если вдруг эта муха окажется альтруисткой (и помрет от света фонарика), сделайте всё наоборот (оставьте только личинок её группы).
Затем вырастите из личинок взрослых мух (окажитесь в исходном состоянии) и повторите всё с нчала (опять разделите свежевыращенных мух на две группы и т.д.).
Многократно повторив описанное вы скоро заметите что альтруистические мухи попадаются всё чаще и чаще.
Почему?
Все очень просто: Обозначим общее число мух как полное количество альтруистических мух как а количество альтруистических мух попавших в первую группу как . В этом случае вероятность того что личинки из первой группы выживут, а вторая группа будет уничтожена окажется равна:

Теперь найдем математическое ожидание величины (для следующего поколения) в предположении что "альтруизм" наследуется потомками:


На графике представлена зависимость матожидания количества выживших альтруистических мух от их исходного количества в первой группе при условии что в обеих группах в сумме всего 20 альтруистических мух (), а всего имеется 100 мух ().
Как видно из графика матожидание всюду превосходит первоначальное значение за исключением случая когда мухи распределены поровну между группами. Учитывая то что распределение мух по группам выполняется случайным образом, вероятность того что в первую группу попадет альтруистических мух будет равна:
Где - Биомиальный коэффициент из по .
Чтобы избавится от переменной просуммируем матожидания по всем допустимым значениям :

Ниже приведен график зависимости разности от для ста мух:

Как видно из графика, для всех кроме и матожидание количества альтруистических мух в конце экспериментальной итерации всегда больше чем в начале итерации. Таким образом делаем вывод что как только среди мух появится хотя бы одна альтруистическая (в следствии случайной мутации), дальнейшее количество таких мух будет расти (в среднем по множеству ансамблей) до тех пор пока все мухи не станут альтруистическими.
Справедливости ради стоит отметить, что если немного модифицировать эксперимент, а именно, размножать мух не до тестирования случайной мухи на альтруистичность, а после него (Если муха выжила то убиваем всех из её группы (вместе с ней самой), а от мух из другой группы получаем удвоенное потомство. Если муха умерла то уничтожаем мух другой группы, а от оставшихся мух получаем потомство в количестве штук)
То матожидание примет вид:

Его график приведен ниже.

Стоит обратить внимание что в данном случае имеются матожидания как болшие так и меньшие чем
Из за этого оказывается что для новой схемы эксперимента, матожидание не зависит от и всегда равно т.е. в таких условиях рост количества альтруистических мух не наблюдается. Видимо (это только моё предположение) для возникновения альтруизма в популяции необходимо чтобы альтруист имел возможность размножатся до совершения альтруистического поступка. Однако для возникновения массового альтруизма совершенно необязательна информированность особей как о состоянии популяции так и даже о её наличии.
Ценность приведенного мысленного эксперимента не в том что он объясняет как у мух может развиться альтруизм (в эксперименте сделана масса предположений которые для мух могут быть не верны). Ценность данного эксперимента в том что для объяснения распространения альтруизма в нем использован только эволюционный подход, а значит эволюционная теория может объяснить подобный феномен.

Цитата:
По сути, подход к пониманию интеллекта через выполнение команд - более общий, чем выживание ибо достаточно дать универсальному интеллекту команду "выживай", чтобы такой робот сразу превратился в выживательного.

В этом и заключается его слабость (в том что он более общий). Поскольку для поиска принципов устройства интеллекта мне нужно искать только среди тех что совместимы с командой "выживать", а вам еще среди тех что совместимы с другими командами.
Цитата:
волшебными путями стремящееся к выживанию вида

как было показано в эксперименте - никакого волшебства в этом нет.
Цитата:
Покажите, пожалуйста, хотя бы одно (хотя бы приблизительное) устройство интеллекта на основе Вашего критерия, очень интересно посмотреть.

Прежде чем высказывать своё мнение на тему ИИ я намерен получить экспериментальное подтверждение своих слов (я не имею в виду сделать ИИ, мне будет достаточно и какой-нибудь части, подсистемы или принципа, но обязательно чтобы это было реализовано и испытано), иначе мои слова будут только словами, а не результатами научного исследования.
[Ответ][Цитата]
daner
Сообщений: 4593
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 16:01
>>>>> kcrotor
Приятно было читать такой развернутый ответ.

П.С.
Замечание относительно выводов по второму эксперименту. Вывод верен, если акт альтруизма связан с выживанием/гибелью агентов, которые проходят селекцию (муха на которую светят погибает в любом случае, не успевая передать наследство, а значит не выполняется этап "закрепления" необходимый в эв.процессе).
[Ответ][Цитата]
random
Сообщений: 76
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 16:40
написали целое полотно бреда
альтруизм, равно как и самоубиство - психологические явления, корни которых возможно найти при банальном психологическом анализе данного субъекта (в частности для самоубийц - ключевая цель зачастую не самоубиться, а избавиться от страданий). в эксперименте вы выводите не альтруизм у мух, а банальный признак.
попытки Кирсофа и прочих построить ИИ (или ИР или ИП) похожи на постройку замков на облаках.
имхо, нужен фундамент - точная модель биологической системы.
[Ответ][Цитата]
VGΨ
Сообщений: 666
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 16:49
2->kcrotor
признаю, вы определенно можете извлечь интеерсный результат из несовсем адекватного спора :-)
респект! :-)
[Ответ][Цитата]
VGΨ
Сообщений: 666
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 16:57
Цитата:
Автор: random

написали целое полотно бреда

бред? тоесть вы не поняли ни чего из написаного?
и как вы думаете, это автор виноват/такой глупый, что не смог вам объяснить, или вам самому чего то нехватило понять?
[Ответ][Цитата]
Андрей
Сообщений: 3943
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 17:50
Цитата:
Автор: siger
Вы не знакомились с работой Дж.Бэкуса "Можно ли освободить программирование от стиля фон Неймана?"?
Нет. И само внутренне противоречивое название уже настораживает.
[Ответ][Цитата]
Андрей
Сообщений: 3943
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 17:51
Цитата:
Автор: kcrotor
Его конструкцией предусмотрено выполнение команд. Это и есть принципы выживания
Эта тождественность, которую Вы обозначили, значит только одно - что можно выкинуть из головы баластные идеи о выживании/умирании (эти идеи не помогают делать роботов) и сосредоточится непосредственно на механизме выполнения команд, если именно этот механизм (а это именно так!), по Вашей логике, "позволяет виду выживать".

Цитата:
Автор: kcrotor
для поиска принципов устройства интеллекта мне нужно искать только среди тех что совместимы с командой "выживать"
К Вам один простой вопрос. Ваш ИИ выполнит команду "уничтожь себя"?
[Ответ][Цитата]
Кирсоф
Сообщений: 1206
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 05 сен 10 19:17
Цитата:
Автор: siger
Кирсоф, ранее мы условились сформулировать _достаточное_ определение для создания демоверсии ИИ (во всяком случае возражений пока не последовало) Поэтому, предлагаю считать, что понятие "механизм образования новых знаний..." входит в "СИСТЕМУ ПОВЕДЕНИЯ ОБЪЕКТА"
Можете предложить свое определение, если Вас не устраивает сформулированное выше. Но стоит помнить, чем "заумнее" оно будет, тем дольше пройдет времени до "пробы пера" в создании макета

Естественный Интеллект, как Система Поведения Объекта (СПО), слагается из двух Аппаратно-Инструментальных Технологий: Технологии ПСИХИКИ (как Рефлексия) и Технологии РАЗУМА (как Мышление).
Абсолютно все современные достижения в области ИИ - это результаты, достигнутые в развитии ТП. И совсем ничего не сделано в направлении ТР.
Объектом "технологической переработки" в ТП является НЕСЕМАНТИЧЕСКИЙ Сигнал. И наоборот, в ТР - СЕМАНТИЧЕСКИЙ, например, языковая единица (сема).
Выходным ПРОДУКТОМ ТП является Массив Статистических Данных (МСД), а для ТР - Массив Смыслов, Знаний, Прогнозов...
Поэтому важно определиться с направлением Демки. Делаем ТП или ТР?
Лично меня ТП совсем не интересует.

[Ответ][Цитата]
random
Сообщений: 76
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 06 сен 10 5:34
Цитата:
тоесть вы не поняли ни чего из написаного?

не проецируйте на меня свою глупость.
если на вас произвели впечатление слова "математической ожидание" и пара графиков, у меня для вас плохие новости
Кирсоф, а что в итоге получится? Переводчик текстов, чатбот, манипулирующий "смыслами", или просто словоблуд?
[Ответ][Цитата]
NO.
Сообщений: 10700
На: А ЧТО ЕСЛИ СООБЩА СОЗДАТЬ ДЕМОВЕРСИЮ ИИ
Добавлено: 06 сен 10 8:02
Ничего не получится. Посмотрите на терминологию, Кирсов совершенно не в теме.
[Ответ][Цитата]
 Стр.9 (35)1  ...  5  6  7  8  [9]  10  11  12  13  ...  35<< < Пред. | След. > >>