GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (17)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Эта тема как-то связана с AI
Victor G. Tsaregorodtsev
Сообщений: 2898
На: Эта тема как-то связана с AI
Добавлено: 03 фев 17 7:55
Изменено: 03 фев 17 7:56
Цитата:
Автор: NO.
Получился показательный пример междисциплинарных проблем, когда не-биологическую область пытаются описать биологически.

А какая это на самом деле область?
А то, например, социологиня из соседнего губернского города описала почти 40 вариантов адаптаций (куда там егорову с его семью сантиметрами вариантами), и свелА их в 11 более высокоуровневых групп. Или у нас ИИ планируется настолько злобным, что всех убъёт - но социализироваться не будет?
[Ответ][Цитата]
NO.
Сообщений: 8700
На: Эта тема как-то связана с AI
Добавлено: 03 фев 17 8:08
Цитата:
Автор: Victor G. Tsaregorodtsev
А какая это на самом деле область?

А вот это правильный вопрос
[Ответ][Цитата]
r
Сообщений: 612
На: Эта тема как-то связана с AI
Добавлено: 03 фев 17 15:15
Социальная адаптация по скорости идет в п.2. Возражения?
[Ответ][Цитата]
NO.
Сообщений: 8700
На: Эта тема как-то связана с AI
Добавлено: 04 фев 17 6:44
Вестник РФФИ НОМЕР 4, ОКТЯБРЬ-ДЕКАБРЬ 2016 Г.
Тематический блок: Обработка изображений и распознавание образов
http://www.rfbr.ru/rffi/ru/bulletin/o_1967516

По сравнению в Википедией не стоит внимания. Единственное что оттуда узнал, это новую цифру. Когда загружаешь Номер то файл почему-то называется "download".
[Ответ][Цитата]
r
Сообщений: 612
На: Эта тема как-то связана с AI
Добавлено: 21 апр 17 14:55
Изменено: 21 апр 17 14:56
Утянуто из другой ветки
Цитата:
Автор: rrr3
Слово (бирка) "алгоритм", как и любое другое, может обозначать разные вещи (если можно так выразиться). Все зависит от контекста, а не от того, кто, когда, какой смысл помечал этим словом в давние времена.

Например, алгоритм может обозначать строго опредленную последовательность. Но так называемый генетический алгоритм не является в полном смысле строгой последовательностью, хотя данное выражение имеет свой круг обращение и право на "жизнь".
Потому, если спрашиваете что-то поповоду алгоритма, то во избежание бессмысленных споров, стоит уточнять то, какой смысл Вы вкладываете в это слово.
Что касаемо мозга, в частности человека, то очевидно, строгого алгоритма быть не может, может быть алгоритм включающий в себя "тык", наподобие метода тыка в научном поиске или наподобие того, что есть в так называемом генетическом алгоритме, но не идентичной ему.

Истин конечно я не знаю, но уж ежели Вы действительно не можете об этом не думать и раз уж говорю, советую послушать не спеша...

P.s. Я не гость, ответил на Ваш пост я из сочувствия...
Ваш пост пришелся как раз к месту. Под алгоритмом тут лучше подразумевать именно нестрогую, но все же в некоторой степени определенную (до некоторого уровня точности) последовательность. Почему все таки нестрогую. Потому что без доступа к коду нельзя со 100% уверенностью утверждать, что последовательность действительно строго определенная. А если обратить внимание на то, что алгоритма у субъекта два:
1. алгоритм чисто внешнего поведения
2. алгоритм программы, которая этим внешним поведением управляет.
То в первом случае, для человека "со стороны" (наблюдателя) нет возможности наверняка быть уверенным том, что алгоритм чисто внешнего поведения наблюдаемого субъекта строго определен. При должном уровне сложности этого поведения.
[Ответ][Цитата]
r
Сообщений: 612
На: Эта тема как-то связана с AI
Добавлено: 21 апр 17 15:28
Изменено: 21 апр 17 15:47
Хотелось бы уточнить (особенно по п.1), так как вижу некоторое недопонимание. Самое первое и базовое отличие ИИ от обычной программы это наличие двух алгоритмов, один поверх другого. Как мне видится, это обязательное условие, без которого ИИ это не ИИ.

В посте выше я разделил происходящие внутри ИИ-устройства процессы на как бы два потока, два алгоритма. При этом было сказано, что второй алгоритм это непосредственно алгоритм заранее созданной, записанной на носитель программы. Тут вроде бы все ясно. Но есть небольшое уточнение: программа эта способна выявлять зависимости между объектами внешнего мира, а так же способна обучаться новым действиям (методам) над объектами внешнего мира. И самое главное, эта программа способна комбинировать заученные действия (методы, операции) над объектами мира в цепочки действий.

Первый алгоритм в п.1 из поста выше это надстройка, над вторым алгоритмом, его продукт. Поэтому, второй алгоритм я бы назвал продуцирующим, а первый - продуцируемым.

Думаю понятно, что если система способна вырабатывать новые правила и обучаться новым действиям, то первый алгоритм не связан со вторым алгоритмом напрямую. Связь естественно есть, но она осуществляется через правила, а поскольку правила (да и методы тоже) формируются динамически, в процессе работы ИИ-программы, то первый алгоритм для решения одной и той же проблемы может со временем изменяться до неузнаваемости.

Еще хотелось бы отметить один важный момент по п.1. Когда я назвал его алгоритмом чисто внешнего поведения я был не прав. Вернее, я просто хотел подчеркнуть его отличие от алгоритма из п.2, но на самом деле алгоритм из п.1 не обязательно должен проявляться внешне, его процессы могут протекать незаметно для стороннего наблюдателя, равно как и процессы алгоритма из п.2, важно тут другое - оба эти алгоритма жестко не связаны.
[Ответ][Цитата]
Vpolevoj
Сообщений: 1299
На: Эта тема как-то связана с AI
Добавлено: 22 апр 17 0:26
Изменено: 22 апр 17 2:28
Цитата:
Автор: r
Хотелось бы уточнить...

Ну, ты и "уточнил"... только еще больше всё запутал...

И если поначалу ты заявил, что:
Цитата:
Автор: r
...алгоритма[ов] у субъекта два:
1. алгоритм чисто внешнего поведения
2. алгоритм программы, которая этим внешним поведением управляет.

С чем еще, туда-сюда, но можно было бы согласиться (особенно поначалу, так сказать, для прикидки), но потом, после твоего "уточнения":

Цитата:
Автор: r
Самое первое и базовое отличие ИИ от обычной программы это наличие двух алгоритмов, один поверх другого. Как мне видится, это обязательное условие, без которого ИИ это не ИИ.

В посте выше я разделил происходящие внутри ИИ-устройства процессы на как бы два потока, два алгоритма. При этом было сказано, что второй алгоритм это непосредственно алгоритм заранее созданной, записанной на носитель программы. Тут вроде бы все ясно.

Но есть небольшое уточнение: программа эта способна выявлять зависимости между объектами внешнего мира, а так же способна обучаться новым действиям (методам) над объектами внешнего мира. И самое главное, эта программа способна комбинировать заученные действия (методы, операции) над объектами мира в цепочки действий.

Первый алгоритм в п.1 из поста выше это надстройка, над вторым алгоритмом, его продукт. Поэтому, второй алгоритм я бы назвал продуцирующим, а первый - продуцируемым.

Думаю понятно, что если система способна вырабатывать новые правила и обучаться новым действиям, то первый алгоритм не связан со вторым алгоритмом напрямую. Связь естественно есть, но она осуществляется через правила, а поскольку правила (да и методы тоже) формируются динамически, в процессе работы ИИ-программы, то первый алгоритм для решения одной и той же проблемы может со временем изменяться до неузнаваемости.

Еще хотелось бы отметить один важный момент по п.1. Когда я назвал его алгоритмом чисто внешнего поведения я был не прав. Вернее, я просто хотел подчеркнуть его отличие от алгоритма из п.2, но на самом деле алгоритм из п.1 не обязательно должен проявляться внешне, его процессы могут протекать незаметно для стороннего наблюдателя, равно как и процессы алгоритма из п.2, важно тут другое - оба эти алгоритма жестко не связаны.

... всё окончательно запуталось.

Вообще говоря, "алгоритм", какой бы он ни был, это всегда (я подчеркиваю это) определённый (то есть, жестко заданный) порядок выполнения действий, а сами действия при этом должны выполняться именно в этом (и ни в каком другом) порядке. Только тогда мы можем смело называть этот порядок действий "алгоритмом". Все остальные трактовки этого термина я считаю недопустимыми. Тут либо-либо: либо у нас "алгоритм", и мы говорим об алгоритме, либо его нет, и тогда разговаривать не о чем.

Поэтому, если придерживаться именно этого строгого определения, в Искусственном Интеллекте (как и в любом другом Интеллекте) следует выделять не два, а - ТРИ уровня алгоритмов. И это нужно для того, чтобы снять все возникающие противоречия относительно "жесткого" и "гибкого", меняющегося и неизменного.

Первые Алгоритмы - это непосредственно последовательности Действий (как мы их видим). Это, так сказать, самый внешний, самый поверхностный уровень. Они могут быть как жесткими (генетически закрепленными, инстинктивными), так и гибкими - полученными в процессе обучения, вновь сгенерированными и т.д. Это не важно - важно лишь то, что это уровень непосредственного Поведения. И это - Алгоритм.

Далее, если мы допускаем (и предполагаем), что наш Интеллект может обучаться (что означает то, что он МОЖЕТ формировать внутри себя новые Алгоритмы Поведения), то мы должны в обязательном порядке допускать у него наличие еще одного уровня Алгоритмов - того, на котором эти новые Алгоритмы собственно формируются. То есть, мы должны допускать наличие у этого Интеллекта еще одного особого Алгоритма - Алгоритма формирования Алгоритмов. И это - тоже Алгоритм. То есть, это тоже определённый (и жесткий, по всей видимости) порядок действий, который позволяет Интеллекту менять старые и создавать новые Последовательности Действий. И это - Алгоритм.

Но и это еще не всё!

Должен существовать еще один Алгоритм!

Тот, который управляет всей этой механикой. Иначе вся эта "кухня" развалится и пойдёт вразнос! Причем, этот Алгоритм - самый жесткий из всех. Он менее всего подвержен изменениям.

Если первый (внешний) Алгоритм меняется постоянно (тем более, что второй алгоритм специально создан для изменения первого), если второй Алгоритм, который содержит правила по изменению первого, сам тоже может изменяться (ведь, согласитесь, Правила тоже можно и выучить и придумать новые самому), то Систему Управления желательно не менять - иначе на момент изменения можно так дестабилизировать систему, что вернуть её назад в устойчивое состояние будет уже непросто (если вообще возможно).

Кстати, раз уж я упомянул про возможность изменения Правил (второго уровня Алгоритмов). Если допустить такое изменение, то это будет для нас означать, что должен существовать еще один уровень Алгоритмов, который как раз и будет включать в себя Правила по изменению Правил в этих - второго уровня - Алгоритмах. Иначе этот процесс становится неуправляемым. И тогда уровней Алгоритмов становится ЧЕТЫРЕ, а не ТРИ, как в предыдущем моем примере.

Подведу итог.

Если рассматривать Системы с различным уровнем сложности, то в них всегда можно выделить ДВА обязательных уровня Алгоритмов (а я настаиваю на том, что Интеллект можно описать Алгоритмами): это - уровень Управления, и - уровень Поведения. И такая Система - состоящая всего из ДВУХ уровней - уже будет Интеллектом (хотя она и не будет обучаться, во всяком случае, целенаправленно и извне, но это не отрицает самой возможности изменения Алгоритмов Поведения в подобной Системе).

Если же мы хотим от нашей Системы, чтобы она могла целенаправленно обучаться (то есть, менять свои Алгоритмы Поведения по определенным Правилам), то мы обязаны внести в эту Систему еще один уровень Алгоритмов - тот, на котором и будут существовать эти Правила (которые сами - по сути - Алгоритмы).

А вот если мы захотим, чтобы и Правила, по которым меняются Алгоритмы Поведения, тоже бы менялись, то мы должны добавить в Систему еще один уровень, чтобы в свою очередь упорядочить процесс изменения самих этих Правил.

И не стоит забывать при этом, что на каждом из этих этапов усложнения Системы её Система Управления также УСЛОЖНЯЕТСЯ, что приводит в итоге к такой её СЛОЖНОСТИ, которая и становится в конечном счете основным тормозом подобного пути развития Систем. Скажем, к примеру, я могу допустить наличие еще одного уровня Алгоритмов - на котором хранились бы Правила по изменению Правил для изменения Правил, так сказать, Мета-Правила (или Философия, говоря нашим земным языком), но дальнейшее наращивание этих уровней мне уже кажется бессмысленным, так как усложняется процесс УПРАВЛЕНИЯ этой конструкцией.

Тут, как мне кажется, правило следующее:

Чем шире набор Действий (Алгоритмов) - тем проще Система Управления ими.
Когда же мы сводим (или пытаемся свести) все имеющиеся у нас Алгоритмы Поведения в какую-то более-менее упорядоченную систему (как нам кажется, для "удобства управления" ими), то на самом деле, сама Система Управления Поведением усложняется.
И чем более универсальными становятся наши Правила по формированию Алгоритмов Поведения, тем СЛОЖНЕЕ и запутаннее становится Система Управления подобной Системой.

Другими словами - упрощая одно, мы неизбежно усложняем другое.

И тут возникает не просто компромисс, а своего рода ПЛАТА, или ПРЕДЕЛ, если хотите, такого пути УСЛОЖНЕНИЯ.
[Ответ][Цитата]
Vpolevoj
Сообщений: 1299
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 14:15
Изменено: 25 апр 17 15:04
Цитата:
Автор: Vpolevoj
Если рассматривать Системы с различным уровнем сложности, то в них всегда можно выделить ДВА обязательных уровня Алгоритмов: это - уровень Управления, и - уровень Поведения. И такая Система - состоящая всего из ДВУХ уровней - уже будет Интеллектом...

Хочу показать на конкретном примере, как может выглядеть подобный Искусственный Интеллект (состоящий всего их ДВУХ уровней: Поведения и Управления). Тем более, что этот пример я уже давно сделал - это моя "Лягушка" - http://www.gotai.net/forum/Default.aspx?postid=78271#78271 .

Вот представьте, что мы имеем некоего Субъекта, наделенного каким-то базовым набором врожденных действий (что позволяет нам с чистой совестью программировать все поведенческие акты, какие только мы захотим, произвольно - "ручками"). И этот базовый набор действий обеспечивает этому Субъекту приемлемые условия для выживания. Казалось бы - делать больше нечего...

Но, во-первых, всегда можно что-то улучшить, и помимо жестких, генетически закрепленных поведенческих актов, можно попытаться использовать свои, применяя готовые имеющееся действия в других условиях или в других режимах, обеспечивая, так сказать, более тонкие подстройки под сложившиеся обстоятельства. А, во-вторых, и сами эти внешние условия могут настолько сильно измениться, что то, что еще вчера вполне успешно обеспечивало выживание, уже сегодня может стать абсолютно непригодным, а это значит, что нужно уметь переучиваться.

Вот я и попытался (на примере Лягушки) решить подобную задачу. Я попробовал связать имеющийся у неё (гипотетически) набор исходных (и жестких) Действий с Системой Управления. (Как видите, в этом случае получается именно ДВА уровня алгоритмизации Поведения.)

И как же это может работать?

В конечном счете, когда система уже пройдет необходимый период обучения, те или иные Действия должны запускаться в благоприятных (как для их совершения, так и с точки зрения получения возможного результата) условиях, и НЕ ДОЛЖНЫ запускаться в условиях неблагоприятных. А это (даже по сформулированным выше условиям это хорошо видно) - типичная задача для Системы Управления.

Делается это так. Если какое-то выполненное Действие (в тех или иных конкретных Условиях) приводит к ХОРОШЕМУ результату, то ему ставится условный ПЛЮС, а если это совершенное Действие не приводит к "хорошему" результату или даже приводит к ПЛОХОМУ, то ему ставится условный МИНУС. Если в результате подобной политики у какого-то Действия накапливается много ПЛЮСОВ (большой положительный эмоциональный заряд), то такое Действие будет считаться предпочтительным (в данных условиях), и оно будет вызываться чаще. А если же у какого-то Действия накопится много МИНУСОВ (большой отрицательный эмоциональный заряд), то такое Действие (в данных условиях) будет считаться "плохим" и он, скорее всего, вызываться (в данных условиях) не будет.

Вроде бы, всё понятно. Но вопрос остался в начале (инициации) всего этого процесса. И - в переучивании.

Откуда система наберется всех этих "знаний", если Действия должны запускаться только при их "положительном" подкреплении (а при "отрицательных" не должны), а изначально ничего этого в системе нет?

Я решил эту проблему так: я "размазал" исходный "эмоциональный заряд" по всему массиву всех возможных состояний (по всей матрице), и чуть-чуть приподнял его над нулевым уровнем, с тем расчетом, чтобы исходно ЛЮБОЕ ДЕЙСТВИЕ имело бы положительный эмоциональный заряд (пусть и небольшой), и поэтому было бы формально разрешено. И таким образом, еще не обученная система будет (словно маленький ребенок) "все тянуть в рот", и таким образом "набираться опыта".

Кстати, отрицательный опыт у меня нарабатывается быстрее, чем положительный (примерно в 100 раз). Это нужно для того, чтобы даже разовое отрицательное событие (если уж оно не смогло убить эту систему), надежно ограждало бы её от возможных повторений. Правда, тут есть опасность перегибов. Так как отрицательное воздействие, скорее всего, было от какого-то ОДНОГО фактора, а запоминается ВЕСЬ ПАТТЕРН, который совпал с моментом этого воздействия, так что, избегать придется ЦЕЛОГО КУСКА РЕАЛЬНОСТИ (как говорят у нас в народе: обжегшись на молоке - дуем на воду).

Положительный же опыт, наоборот, должен накапливаться медленно. Это нужно для того, чтобы, повторяясь раз за разом, все случайные факторы "затирались" бы, "размазываясь по полю", а важные - накладываясь - накапливались бы и усиливались. Именно поэтому для образования "положительного" условного рефлекса требуется много повторений.

А что касается Переучивания... то, когда система уже выучит, какие Действия в каких условиях для неё "хорошие", а какие - "плохие", а Условия - раз - и изменятся... то... что делать?

И я ввел для этого в систему механизм "забывания". Это принудительный механизм "усреднения" - приведение всех накопленных весовых коэффициентов в исходное состояние с течением времени (так что, если оставить систему надолго без движения, то она станет "девственно чистой", такой, как и была до обучения). И начинаю я со срезания "пиков". Так как, скорее всего, именно накопленные системой минимумы и максимумы окажутся в изменившихся условиях самыми "вредными". Если же "приглаженный" экстремум окажется важным для успешного поведения системы, то он довольно быстро восстановится (за счет повторения необходимого Действия для этого до-обучения).

Зато, если условия действительно изменились, то подобная практика приведет к довольно-таки быстрому ПЕРЕ-учиванию системы, и её весовые коэффициенты перестроятся под новые изменившиеся условия.

Вот так... пытаясь выстроить Систему Управления Поведением, которая бы опиралась исключительно на уже имеющиеся Действия, я выстроил СВЯЗЬ... (между чем и чем?). А между чем, вообще, Интеллект должен выстраивать связь? Между объектами во внешнем мире? Между объектами и своими Действиями? Между каких частей системы нам нужны связи? Что с чем связывается?

Так вот... я выстроил СВЯЗЬ между внешними условиями, выбранными Действиями и... САМОЧУВСТВИЕМ самой этой системы. То есть, в конечном счете, критерием истинности для того или иного выбора всегда является сама эта система, её состояние. Знание не важно. Достоверность не важна. Правда, истина... что там еще... все это для системы не важно. Важно лишь - влияет ли на её итоговое состояние то или иное выбранное ею Действие, или не влияет, а если влияет, то - как именно: положительно или отрицательно.

Можно ли построить более "короткий" Интеллект? Я не знаю. С точки зрения моего подхода - данная конструкция является минимальной. Поэтому я считаю свою "Лягушку" минимальным Искусственным Интеллектом. Но вполне допускаю, что если подходить с других позиций, то вполне возможно построение Интеллекта еще более "короткого". Но я пока такого подхода не знаю. И поэтому временно я придерживаюсь такого мнения, что моя "Лягушка" - это минимально возможный Интеллект. Во всяком случае, пока.
[Ответ][Цитата]
Luаrvik
Сообщений: 11289
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 14:59
Изменено: 25 апр 17 15:18
Цитата:
Автор: Vpolevoj
Вот я и попытался (на примере Лягушки) решить подобную задачу. Я попробовал связать имеющийся у неё (гипотетически) набор исходных (и жестких) Действий с Системой Управления. (Как видите, в этом случае получается именно ДВА уровня алгоритмизации Поведения.)

И как же это может работать?
<...>
Делается это так. Если какое-то выполненное Действие (в тех или иных конкретных Условиях) приводит к ХОРОШЕМУ результату, то ему ставится условный ПЛЮС, а если это совершенное Действие не приводит к "хорошему" результату или даже приводит к ПЛОХОМУ, то ему ставится условный МИНУС. Если в результате подобной политики у какого-то Действия накапливается много ПЛЮСОВ (большой положительный эмоциональный заряд), то такое Действие будет считаться предпочтительным (в данных условиях), и оно будет вызываться чаще. А если же у какого-то Действия накопится много МИНУСОВ (большой отрицательный эмоциональный заряд), то такое Действие (в данных условиях) будет считаться "плохим" и он, скорее всего, вызываться (в данных условиях) не будет.

Стаффорд Бир показал как это работает в далеком 1972 году, без всяких лягушек и прочих земноводных - на "спичечных коробках". (См. "Мозг фирмы", гл.4,5.)
[Ответ][Цитата]
Vpolevoj
Сообщений: 1299
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 15:36
Цитата:
Автор: Luаrvik
Стаффорд Бир показал как это работает в далеком 1972 году, без всяких лягушек и прочих земноводных - на "спичечных коробках". (См. "Мозг фирмы", гл.4,5.)

Иди лучше с Эггом поболтай, или с Хмуром...

А вообще, господа, я хочу Вам всем сказать, что пока что у Вас нет понимания того, что такое Интеллект. Нет также и четкого определения, такого, чтобы вывести процесс его воспроизводства на технологический уровень (чтобы было понятно любому инженеру). Следовательно, вы не только не можете его создать, но не можете и верифицировать его. И не узнаете, что перед Вами Искусственный Интеллект, даже если будете упираться в него лбом! Чтобы Вам ни показывали, для Вас - всё божья роса.

Учите матчасть!

А то - как в той притче со слепыми и слоном: у одного Интеллект - это Система Управления, у другого - Онтология, у третьего - Самочувствие, у четвертого - взаимосвязи, у пятого - обучение, у шестого - ... и т.д. и т.д. А делать-то что? Точнее, как? Чтобы получился Интеллект? И, главное, как потом проверить, что получился именно Интеллект?

Вы знаете?
Вот то-то и оно!
[Ответ][Цитата]
Эгг
Сообщений: 8881
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 15:53
Изменено: 25 апр 17 16:00
Цитата:
Автор: Vpolevoj
И не узнаете, что перед Вами Искусственный Интеллект, даже если будете упираться в него лбом

Ну почему не узнаем, узнаем. Мартин Гарднер делал такой интеллект, тоже, кстати, на спичечных коробках, для игры в крестики-нолики (я приводил ссылку, но погуглить нетрудно). Когда мне было восемь лет, я месяц собирал по всем соседям пустые спичечные коробки и у меня был искусственный интеллект на тех же самых принципах, о которых Вы с таким упоением рассказываете.

Конечно, это интеллект. В смысле ML и ув. Михайло, который на этом ML хочет собрать свою думающую машину. У меня (и насколько могу понять у ув. Луарвика) есть сомнения, что она будет думать.
[Ответ][Цитата]
Luаrvik
Сообщений: 11289
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 16:02
Изменено: 25 апр 17 16:19
Цитата:
Автор:Vpolevoj
Иди лучше с Эггом поболтай, или с Хмуром.
А вообще, господа, я хочу Вам всем сказать, что пока что у Вас нет понимания того, что такое Интеллект. Нет также и четкого определения, такого, чтобы вывести процесс его воспроизводства на технологический уровень (чтобы было понятно любому инженеру).

Зато у тебя его полные штаны, хамло бездарное !
"Царь-кощей над ЖАБОЙ чахнет..."
... смотри, не лопни там от ЧСВ !
[Ответ][Цитата]
Luаrvik
Сообщений: 11289
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 16:14
Цитата:
Автор: Эгг
Конечно, это интеллект.

"Интеллект", или то, что в рамках дисциплины так называется.
ЕИ(И) и ИИ все-таки разные вещи, как ни крути.
Цитата:
Автор: Эгг
В смысле ML и ув. Михайло, который на этом ML хочет собрать свою думающую машину. У меня (и насколько могу понять у ув. Луарвика) есть сомнения, что она будет думать.

ML - это наивная раскрученная попса для плебеев от программирования, вроде "как бы на кактус сесть и не уколоться".
[Ответ][Цитата]
Эгг
Сообщений: 8881
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 16:18
ИИ и ML - это технологии, это, фактически, математика. Очень полезная вещь, кстати. Просто нужно хорошо различать все варианты "интеллектов", начиная от всяческих бионик и заканчивая всяческими эмерджентностями. Если различаешь, то проблем в жизни с этим нет.
[Ответ][Цитата]
Luаrvik
Сообщений: 11289
На: Эта тема как-то связана с AI
Добавлено: 25 апр 17 16:22
Изменено: 25 апр 17 16:35
Цитата:
Автор: Эгг
ИИ и ML - это технологии, это, фактически, математика... Просто нужно хорошо различать все варианты "интеллектов"...

Да, это голимая математика, что есть не Интеллект, а его продукт.
Интеллект ЗА НИМИ - за спиной математики, на шаг НАЗАД (NB!), это очевидно.
И действительно следует различать курицу - Интеллект и яйцо - "интеллект".

Я все понимаю, но математика и прочие подобные "технологии" - это еще далеко не Интеллект.
[Ответ][Цитата]
 Стр.2 (17)1  [2]  3  4  5  6  ...  17<< < Пред. | След. > >>