GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (16)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
daner
Сообщений: 4593
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 26 окт 22 17:19
Цитата:
Автор: Андрей Кучеменко

А как строго отличить память от не памяти?

Вот пожалуйста: http://www.gotai.net/forum/default.aspx?page=1&threadid=231159


ну для каких-то задач этого будет достаточно, но не для любых. я бы сказал что это пример минимального интеллекта.
[Ответ][Цитата]
cortl
Сообщений: 258
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 26 окт 22 21:24
Цитата:
Автор: гость
Сейчас я думаю самым существенным препоном есть не сами алгоритмы а данные. По сути же данные это и есть модель, но пока нет подробных датасетов аля "человек". Чтобы были данные сесоров(глаза, уши, тело и тп.) и реакции человека, за например от 0 до 15 лет. Причем желательно хотя бы от сотни другой людей.


Эта куча данных бесполезна. Человек не может прожить то 0 до 15 лет повторно пиксель в пиксель. Нет смысла требовать от AGI повторения данного датасета. Данные приходят в реалтайме и процесс интерактивен.
[Ответ][Цитата]
cortl
Сообщений: 258
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 26 окт 22 21:31
Цитата:
Автор: гость
По моему для начала нужно определиться что такое "интеллект"

Цитата:
Автор: Андрей Кучеменко
А как строго отличить память от не памяти?
Вот пожалуйста: http://www.gotai.net/forum/default.aspx?page=1&threadid=231159


Предлагаю застолбиться на том, что интеллект начинается с while(true).
Но до появления mvp продолжать не следует.
[Ответ][Цитата]
daner
Сообщений: 4593
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 26 окт 22 22:58
Цитата:
Автор: cortl
Эта куча данных бесполезна. Человек не может прожить то 0 до 15 лет повторно пиксель в пиксель. Нет смысла требовать от AGI повторения данного датасета. Данные приходят в реалтайме и процесс интерактивен.


предположу, что имелось ввиду не точное повторение и не какие-то конкретные данные, а в общем, эквивалентный объем данных.
[Ответ][Цитата]
cortl
Сообщений: 258
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 26 окт 22 23:42
Изменено: 26 окт 22 23:44
daner, про пиксели я, конечно, утрировал, но, к примеру, проходя по датасету, в какой-то момент: "человек повернул голову налево и увидел то, что слева".
А может быть испытуемый на датасете кандидат в СИИ хотел повернуть голову направо и увидеть то, что справа? Но в датасете нет такого пути развития событий.
Линейный и неинтерактивный датасет не годится для тестирования СИИ.
[Ответ][Цитата]
daner
Сообщений: 4593
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 1:12
Цитата:
Автор: cortl

daner, про пиксели я, конечно, утрировал, но, к примеру, проходя по датасету, в какой-то момент: "человек повернул голову налево и увидел то, что слева".
А может быть испытуемый на датасете кандидат в СИИ хотел повернуть голову направо и увидеть то, что справа? Но в датасете нет такого пути развития событий.
Линейный и неинтерактивный датасет не годится для тестирования СИИ.


я вам за весь СИИ не скажу, тема уж больно велика, но и нейронные сети и обучение с усилением без проблем могут работать на подготовленных данных.
когда идет обучение, не важно, что хотел сделать "кандидат". что сделано, то сделано и этот опыт чему-то нас учит. а вот хотеть, и делать то что он хочет, он будет когда ему представиться для этого возможность и это хотение у него будет на основе предыдущего опыта. это называется offline policy. например так q-learning (как обычный так и deep) это оффлайн полиси алгоритм, а вот sarsa (если не ошибаюсь) нет.
другое дело, что active perception (это когда нужно что-то сделать, что бы что-то узнать) может быть весьма полезным, что бы ускорить (или повысить точность) обучение.
[Ответ][Цитата]
гость
146.59.18.*
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 5:52
Цитата:
Автор: Андрей Кучеменко

А как строго отличить память от не памяти?

Вот пожалуйста: http://www.gotai.net/forum/default.aspx?page=1&threadid=231159
Если в памяти есть "ВСЁ" и скорость работы такой системы приемлемая, то разницы не будет, другое дело что это практически невозможно. В реальности мы имеем дело с конечными и очень ограниченными системами, из комбинаций миллионов вычислителей, максимум миллиардов и в них нужно засунуть "модель мира", которая в триллионы раз больше даже с точки зрения банальной проверки. Поэтому "пиксель в пиксель" — не сработает, нужны модели, сжатие, аппроксимация, накопление инструментария, его комбинирование и подгонка, разнообразные натягивания сов на глобусы.
[Ответ][Цитата]
гость
146.59.18.*
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 6:10
Цитата:
Автор: daner



ну собственно вы сами и ответили на все вопросы. потенциальные модели вычислителей, которые могут быть интеллектуальны, у нас есть. данных нет. когда-нибудь будут. сейчас решаются более насущные и прикладные задачи, и не всегда через данные и обучение. иногда по старинке, придумывая алгоритм (на основе опыта и данных разработчиков), но алгоритм это не шпаргалки. если мы утверждаем, что интеллектуален уже зрелый решатель, то не важно как он стал зрелым, т.е. китайская комната в принципе интеллектуальна. есть же всякие там универсальные доказатели теорем, которые работают без всякого обучения, но вполне генерируют новые знания, на основе аксиом и других теорем. если это за новые знания не считать, то мы уходим в глубь философии: что же считать, а что не считать знанием. А все эти философские вопросы, интересны просто для поболтать, но совершенно бесполезны на практике (это же не принципиально, считать решение теоремы новым знанием, или не считать, если требовалось решить теорему).
Я бы ставил бы на МЕТА-алгоритмы, то есть не сами элементарные ML(нейронки, леса и тп), но алгоритмы которые городят из них ансамбли и стеки для решения конкретных задач, без участи человека, что-то типа auto-ml но с намного более ёмкими наборами эвристик.

Откровенно говоря, я не верю в бкпропный "диплернинг", конечно это красивый алгоритм с математической и эвристической точки зрения, но имхо годный только для отдельных модулей, не для всей системы в целом. А "алгоритма всей системы" одного и не будет скорей всего, будет куча алгоритмов и алгоритмов управления алгоритмами, нечто на подобии как у современных ОС.

Как референс наш мозг, это куча систем, большая часть из которых — хардкод которому миллионы лет и был получен отбором(стох поиском), некоторым десятки-сотни миллионов лет, аналитическая часть(кора) — только малая честь, да и то устроенна проекционным образом(то есть ближе к RBF моделям).
[Ответ][Цитата]
гость
185.243.218.*
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 8:50
Цитата:
Автор: гость

МЕТА-алгоритмы
"мета" это к хмуру, но его уже нет с нами
[Ответ][Цитата]
гость
185.14.97.*
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 9:57
knn
[Ответ][Цитата]
cortl
Сообщений: 258
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 10:49
Цитата:
Автор: daner
я вам за весь СИИ не скажу, тема уж больно велика, но и нейронные сети и обучение с усилением без проблем могут работать на подготовленных данных.
когда идет обучение, не важно, что хотел сделать "кандидат". что сделано, то сделано и этот опыт чему-то нас учит. а вот хотеть, и делать то что он хочет, он будет когда ему представиться для этого возможность и это хотение у него будет на основе предыдущего опыта. это называется offline policy. например так q-learning (как обычный так и deep) это оффлайн полиси алгоритм, а вот sarsa (если не ошибаюсь) нет.
другое дело, что active perception (это когда нужно что-то сделать, что бы что-то узнать) может быть весьма полезным, что бы ускорить (или повысить точность) обучение.

В таком случае ребёнку можно от рождения беспрерывно показывать кино, а в 16-18 лет устроить на работу. Профит!
[Ответ][Цитата]
гость
185.220.101.*
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 13:16
Цитата:
Автор: cortl


В таком случае ребёнку можно от рождения беспрерывно показывать кино, а в 16-18 лет устроить на работу. Профит!
ребёнок должен расти в трудных условиях, сталкиваться с насилием и непредсказуемой неизбежностью, прямо с первых дней, только так можно взрастить гибкий и приспособляемый ум, а не любовью и комфортом
[Ответ][Цитата]
daner
Сообщений: 4593
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 27 окт 22 13:30
Цитата:
Автор: гость

Я бы ставил бы на МЕТА-алгоритмы, то есть не сами элементарные ML(нейронки, леса и тп), но алгоритмы которые городят из них ансамбли и стеки для решения конкретных задач, без участи человека, что-то типа auto-ml но с намного более ёмкими наборами эвристик.

Откровенно говоря, я не верю в бкпропный "диплернинг", конечно это красивый алгоритм с математической и эвристической точки зрения, но имхо годный только для отдельных модулей, не для всей системы в целом. А "алгоритма всей системы" одного и не будет скорей всего, будет куча алгоритмов и алгоритмов управления алгоритмами, нечто на подобии как у современных ОС.

Как референс наш мозг, это куча систем, большая часть из которых — хардкод которому миллионы лет и был получен отбором(стох поиском), некоторым десятки-сотни миллионов лет, аналитическая часть(кора) — только малая честь, да и то устроенна проекционным образом(то есть ближе к RBF моделям).


по большому счёту я с вами согласен. да в общем мне кажется все с вами согласны. вот только насчёт бекпропа.... это всего лишь метод поиска самой большой энергетической ямы. он не единственный. будет какой-либо другое метод- пожалуйста. суть-то как раз в том чтобы отыскать самую глубокую яму, а как, это не принципиально.
[Ответ][Цитата]
гость
185.243.218.*
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 28 окт 22 3:09
Цитата:
Автор: daner


http://www.gotai.net/forum/default.aspx?page=1&threadid=231159

я бы сказал что это пример минимального интеллекта.
кнн - минимальный ИИ
[Ответ][Цитата]
daner
Сообщений: 4593
На: "Про ML" или "От kNN до AGI, задачи и камни преткновения."
Добавлено: 28 окт 22 11:17
Изменено: 28 окт 22 11:29
Цитата:
Автор: гость

кнн - минимальный ИИ


нет, кнн уже не минимальный.


на мой взгляд, минимальный интеллект (в соответствии со словарными определениями)
должен проявлять, хотя бы три, следующии качества
- рациональность

его действия должны быть направленны на улучшение какой-либо характеристики

- адаптивность

его действия должны меняться в зависимости от контекста новых знаний

- абстракция

сопоставление происходит не по всем характеристикам объектов, а по предопределённой подгруппе этих характеристик.

так как характеристик предопределены, то абстрагирования ещё нет.

это как раз алгоритм поиска по словарю. тут правда есть нюанс, относительно абстракции. она зависит от определения функции сопоставления. если это упорядоченный массив по ключу, то абстракция прописывается перегрузкой оператора сравнения, если же это хеш таблица, то через хеш функцию.

в кнн мы видим появление ещё одного дополнительного свойства

- ассоциативность

сопоставление происходит не только по под группе характеристик, но и не требует точного совпадения. более того, оно зависит (в определённых рамках) от характера исходных данных, т.е. опыта и подразумевает не абсолютную метрику (как в словаре), а относительную.

а так же усиление абстракции (особенно при к>1), так как некоторые характеристики, могут считаться менее важными чем другие, причем без предопределения этого (можно сказать, зачатки абстрагирования)
[Ответ][Цитата]
 Стр.2 (16)1  [2]  3  4  5  6  ...  16<< < Пред. | След. > >>