GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (5)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
гость
188.170.73.*
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 8:09
кусь> Сомнительный подход.

альтернатива?

> Любая систем МТ сводима к одной МТ с полубесконечной лентой.

не надо повторять мантру - дайте ссылку или внемлите ранее сказанному. Тут как бы вопрос кто на ком стоял - теория систем на теории вычислений или наоборот.. (типо теория вычислений так определяет понятие система машин чтобы выстроить фонарь для редуктивной теоремы.. - но даже самые упертые фонарщики ищут ключи там где потеряли (заузили понятие система), а не там где светло).
[Ответ][Цитата]
Кусаюсь
Сообщений: 439
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 8:19
Цитата:
Автор: гость
не надо повторять мантру - дайте ссылку или внемлите ранее сказанному

Эта теорема входит в общий курс теории алгоритмов. В любом учебнике есть.

Цитата:
альтернатива?

Отказ идеи что интерполяция наше все.
[Ответ][Цитата]
Михайло
Сообщений: 1904
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 8:58
Цитата:
Автор: Кусаюсь
Отказ идеи что интерполяция наше все.

Я уже на dxdy.ru писал. Ну и для вас специально напишу.

Итак, интерполяция, аппроксимация и экстраполяция - это родственные понятия. Это одно и тоже. Суть - по нескольким точкам восстановить бесконечное число других точек, то есть через несколько точек строятся кривые, многомерные поверхности...

Вопрос, а можно ли без точек, то есть без исходных данных восстановить бесконечное число точек?

Ответ: это невозможно, это маразм.

Так что желание иметь интеллект сильнее, чем слабый - это проявление инфантильности. Это психологическая проблема.
[Ответ][Цитата]
Сергей Гаврилов
Сообщений: 138
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 9:06
Изменено: 09 ноя 18 9:33, автор изменений: Кусаюсь
Это смотря какая интерполяция, сложная или простая, в каком то смысле любая регулярность, может быть извлечена из данных каким либо способом аппроксимации(индукции), так как регулярность по определению повторяемость, а значит статистически различима в мире хаоса.
[Ответ][Цитата]
Кусаюсь
Сообщений: 439
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 9:28
Цитата:
Автор: Михайло

Вопрос, а можно ли без точек, то есть без исходных данных восстановить бесконечное число точек?

Можно. Случайная последовательность называется.
[Ответ][Цитата]
Кусаюсь
Сообщений: 439
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 9:34
Цитата:
Автор: Сергей Гаврилов

Это смотря какая интерполяция, сложная или простая, в каком то смысле любая регулярность, может быть извлечена из данных каким либо способом аппроксимации(индукции), так как регулярность по определению повторяемость, а значит статистически различима в мире хаоса.


Или доброе утро парейдолия.
[Ответ][Цитата]
Михайло
Сообщений: 1904
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 9:50
Цитата:
Автор: Кусаюсь


Можно. Случайная последовательность называется.

Нет, случайная последовательность не годится. Ведь "восстановить поверхность" означает минимизировать сумму квадратов разницы. ГСЧ однозначно с функционалом качества не справится.
[Ответ][Цитата]
Кусаюсь
Сообщений: 439
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 10:38
C N попыток вы с достаточной вероятностью удовлетворите любому наперед заданному уровню качества.
[Ответ][Цитата]
Михайло
Сообщений: 1904
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 10:43
Культ сильного интеллекта - это пройденный этап а-ля теплород. Скоро миром будут править миллениалы, которые не умеют пользоваться калькулятором. И если их спросить, голосуешь ли ты за сильный интеллект, то они ответят: "пошел к черту, провокатор!".

А поколение Эгга имеет психологические проблемы: они не верят в достижения искусственного интеллекта, они не видят фактов, намеренно игнорят, чтобы гнобить миллениалов, пытаться не потерять доминанту.

Проигрыш неизбежен.

Наука же в стороне от всяких психологических проблем. Если бы сильный интеллект не был фантазией, то наука давно бы уже торговала соответствующей маркой. Но сильный интеллект - это мыльный пузырь. В википедии про AGI написано, что этой тематикой занимается около 40 фирм во всем мире. Это флуктуация в пределах погрешности. Это мошенники, они обманывают инвесторов.
[Ответ][Цитата]
Михайло
Сообщений: 1904
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 10:45
Цитата:
Автор: Кусаюсь

C N попыток вы с достаточной вероятностью удовлетворите любому наперед заданному уровню качества.

Вы пытаетесь хлыждить: n попыток вам нужны, чтобы получить n точек для аппроксимации.
[Ответ][Цитата]
Кусаюсь
Сообщений: 439
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 11:37
С другой стороны при машинном обучении тоже чсило проходов измеряется очень круглыми цифрами. При этом прямой перебор требует меньшге вычислительных ресурсов и идеально паралелиться.
[Ответ][Цитата]
Михайло
Сообщений: 1904
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 20:46
Прямой перебор. Перебирать что?
[Ответ][Цитата]
Михайло
Сообщений: 1904
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 22:02
Те обыватели, которые хают аппроксимацию, считая её непрочной основой слабого интеллекта, просто не умеют эту самую аппроксимацию использовать. Обыватели - не инженеры-практики, они глубоко заблуждаются и сразу делают далеко идущие выводы.

Возьмём слабый аппроксимирующий интеллект. Посмотрим на это жалкое зрелище: на вход приходят значения X, на выходе значения Y. Пусть X - это факты реальной жизни, Y - представления о мире. Чего нам не хватает? Точно, не хватает некоторой экстраполяции. (Обыватели думают, что экстраполяция - это неаппроксимация, я воспользуюсь этим представлением.) Пусть экстраполяция заключается в генерации Y в отдалённой области X. Что значит "отдалённая область X". Ну это такие значения X, с которыми аппроксиматор ранее не сталкивался. Например, мы можем потребовать от аппроксиматора порассуждать о некоем неизвестном потустороннем мире. Естественно, наш жалкий аппроксиматор насочиняет всякую бредятину, он не справится.

Однако, "как показывает практика", человек с экстраполяционными задачами справляется на ура.

Что мы можем сделать с аппроксиматором? Ок, есть предложение сделать его обучение активным. Это значит у аппроксиматора должен появиться второй субалгоритм, который будет выдавать решение Y1, которое будет управлять сбором данных X, подаваемых на вход основного алгоритма. Самое главное, что мы никуда не уходим от привычных аппроксимирующих алгоритмов, теперь у нас их два. Вот так, два жалких зрелища, работающих совместно, обладают синергией - мощным исследовательским потенциалом, особенно если в функционал качества второго алгоритма прописать требование разнообразности X, математически это нетрудно.

Как вам нравится такая идея, обыватели?

***

Есть техническая проблема. Субалгоритму, управляющему потоком фактов о мире X, требуется хороший эффектор. Нужно, чтобы эффектор создавал условия доступа к "потусторонним мирам".

Если рассмотреть человека, то таким эффектором у него является рука. Рука человека - это самый эффективный эффектор для активного обучения во всем животном мире, это дополнительный фактор успешности. Рука смогла обеспечить получение такого количества знаний, которые гарантировали человеку победу над многими природными рисками. Взять даже тот период развития человечество, когда оно освоило первые инструменты труда и построило первые безопасные жилища.

Если в качестве эффектора будет выступать лапа белки, то такого успеха ожидать не следует. Лапа белки не позволяет получить доступ в жизненно важные "потусторонние миры".

***

Вот так вот, ИИ-стратеги. Вы хоть сколько пытайтесь усиливать интеллект, но дело не в этом.
[Ответ][Цитата]
Кусаюсь
Сообщений: 439
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 09 ноя 18 23:22
Цитата:
Автор: Михайло
Те обыватели, которые хают аппроксимацию, считая её непрочной основой слабого интеллекта, просто не умеют эту самую аппроксимацию использовать. Обыватели - не инженеры-практики, они глубоко заблуждаются и сразу делают далеко идущие выводы.


Дело не в аппроксимации, а в аппроксиматорах которые аппроксимируют там, где этого лучше не делать.
[Ответ][Цитата]
гость
188.170.75.*
На: Ответ Егорову на его "глубокие мысли" о всесилии нейросетей и программировании 2.0
Добавлено: 10 ноя 18 1:42
кусь> Эта теорема

вас и просят дать ее точную формулировку, - чтобы вы сами уяснили себе что ваша формулировка про 'любую систему' неверна (или разъяснили мне в чем я заблуждаюсь). Это вопрос на смысл - насколько вы сами уяснили то, что повторяете как мантру. ВАш тезис является CЛИШКОМ сильным, а потому подозрительным.

на пальцах.
коллектив представляется унитарно с экспоненциальными трудностями (как недетерминированая машина детерминированной). И если рассматривать ограничения, то в рамках тех или иных ограничений (на размер таблицы переходов, число шагов) коллектив не влезет в машину (если сделать финт и разместить большую таблицу на ленте и универсальной машиной читать ее, то это усугубит временные ограничения).
Потом, положим что машины взаимодействуют таким образом, чтобы затруднить восстановление закономерностей коллективной динамики - тогда, хотя у нас и будет экспоненциально большое место для размещения унитарного алгоритма, но 'никто' не будет знать как этот алгоритм выглядит.
это как бы рамочные контрсоображения, а 'изнутри' вопроса можно спросить следующее. - а всегда ли возможно адекватно отобразить коллектив лент на ОДНУ ленту? Можно рассмотреть статическое, финальное состояние - вот коллектив написал что-то на единую (упростим) ленту - положим написанное выглядит как несжимаемая последовательность, тогда эквивалентная унитарная машина (алгоритм) вырождена - она просто переписывает
вход на выход для получения определенного выхода. Но это по сути означает что эквивалентной нетривиальной машины нет. Но если машины безостановочные, то рассматривать нужно динамическую запись на единой ленте - и если ее вид определяется тем, что машины асинхронны и 'в какие-то моменты' независимы, то как возможна
унитарная машина, эмулирующая 'истинную' асинхронность и независимость компонентов в себе?

по поводу что редуктивная теорема ищет под фонарем в более широком контексте высказался непейвода в предисловии к книге митчелла об основаниях языков программирования, откуда можно вычитать идею неэквивалентности параллельного
и последовательного, о несводимости в общем случае коллектива к одной машине (доказательство на языке непредставимости операции рarOR в сигнатуре унитарной алгебры рассыпано по параграфам и вцелом не акцентируется).

> Отказ идеи что интерполяция наше все.

но ведь сетки это не только интеполяторы-экстраполяторы-аппроксиматоры, но и фильтры, регрессоры, регуляторы etc. теорема об универсальном аппроксиматоре ведь не исчерпывает иных свойств сеток (напр. как динамических систем)..
свойства объекта зависят же от контекста - поместили сетку в контур управления, Она в принципе проявит и дополнительные свойства, не только аппроксимирующие.
------------

мих> иметь интеллект сильнее, чем слабый

а миху заносит в иную 'пердолию'.. когда к сеткам приделывают механизмы внимания, любопытства, рефлексии, то это ничто иное как 'усиление' 'просто' аппроксиматоров, когда аппроксимации становятся мотивированными. Основания того, что одна аппроксимация предпочтительнее другой лежат ВНЕ самой логики аппроксимации, - поэтому неверно представление что универсальная аппроксимирующая способность это достаточная основа для интеллекта. миха сам себе рвет горло - идея 'активного обучения' (напр. на основе селекции обучающих примеров по предпочтительности) это идея класса 'усиления' - а сильный интеллект это слабый интеллект претерпевший достаточное число расширений (основ) и усилений. Вопрос только в уяснении нужных расширений и усилений - ради нового качества, синергии, cамоусиливающегося клуджа (критического усиления). - миха громко кричит про достаточность слабости, но втихаря размышляет над усилением..
[Ответ][Цитата]
 Стр.2 (5)1  [2]  3  4  5<< < Пред. | След. > >>