GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.3 (8)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Предметная дискуссия про NLP
гость
188.170.74.*
На: Предметная дискуссия про NLP
Добавлено: 02 сен 17 4:19

м.> я то лучше тебя разбираюсь в теме

не льсти себе, ты даже в машобуче еще не разобрался должным образом, чего уж говорить о проблематике ии в ее полном объеме.. пересказ основ методологии машобуча (в их некоторой части) это еще только самый начальный уровень - как если бы освоив арифметику ты выступал бы с притензией что арифметика всему голова (абстрактные алгебраисты или логики тебя очень бы не поняли) (в конце концов и в метаматематике геделева нумерация это только вспомогательное средство).

> Ты можешь не гипотезировать, а говорить то, что есть на самом деле?

ну, на самом деле-то как раз есть самовольные автономные агенты, на самом деле есть и грубые модели агентов, вопрос только в том, чтобы модели (класса 'универсальных') были бы все более гибкими. Если искусственный агент жестко подчиняется приказам, то такой агент никогда не будет интегриррван в общество людей. Такой даже автономный автомобиль никто не выпустит на общую дорогу. Опять же - защиту от дурака (или неосторожного приказа) можно реализовывать по-разному - вопрос только в том, какие механизмы будут признаны дастаточно надежными и достаточно ГИБКИМИ.

> о каких-то АГИ,

тебе не раз разъяснялось что сильное не значит супер, это у тебя какие-то смещенные представления и потребность воевать с фикциями. понятие супер сильного ии как раз не имеется в виду. Гибкость и суперэффективная специализация как раз противоречивы.

> должны быть свободна от ограничений,

нет, речь идет об ослаблении глобальных ограничений - примерно как у человека, - поначалу биологическое принуждение непреложно, но постепенно вы научаетесь подчинять базис надстройке и на публике стараетесь не накладывать под себя (у вас этот навык еще в процессе формирования). - Речь идет о верификации приказов, осмысленном к ним отношении - анализу соотношения приказа с системой нормативов, c другими приказами, общими ценностыми установками, анализ последствий выполнения - не только со своими интересами. В действительности это может быть и в интересах лица, отдающего сомнительный приказ.

> да пошел ты, нахуй, генерал

это вопрос настройки механизмов принятия приказа к исполнению - по любому автоматическая постановка приказа на исполнение не есть удовлетворительное решение для многих важных случаев.
[Ответ][Цитата]
гость
188.170.82.*
На: Предметная дискуссия про NLP
Добавлено: 02 сен 17 5:11

А.> в действительности НЕТ СПОСОБА ОТЛИЧИТЬ, "настоящий" разум от китайской комнаты, если .. комната качественно реализованна,

если строго, то 'правильная' организация китайской комнаты выводит ее за границы серлевой китайской комнаты. Cкажем, cерлева комната не смогла бы ответить на вопросы об актуальном окружении (нет рецепторов и преобразования их данных в слова), могла бы дать неверные ответы по предыстории разговора (не все правила той же кореференции входят в грамматику). серль всего лишь аргументировл в пользу семантики против автономного (самодостаточного) синтаксиса (что семантики синтаксиса и лексической сочетаемости недостаточно).
[Ответ][Цитата]
гость
188.170.81.*
На: Предметная дискуссия про NLP
Добавлено: 02 сен 17 5:30

м.> я тебя обучаю.

молодец, как твой когнитивный терапевт я вижу твой прогресс, cкоро остаточные явления самомнения исчезнут, если продолжишь самообучение и попытки обучать на мизере других. паталогии слабой рефлексивности это мой конек..

> Человек не умеет ослаблять глобальные ограничения.

умеет ослаблять, но не отменяет полностью. Драйву голода противоставляется регуляция мотивационной сферы на основе механизмов воли. Можно убеждать себя в ценности того, достижению чего отданы ресурсы , можно 'просто' уморить себя голодом во имя каких-то идеалов (не преодалев потребность, а просто не удовлетворив ее какой бы базовой она ни была бы). Тут не цель-подцель, а цель и надцель. Человек потому и не просто биология, а еще и психология.

> почему ты все время ослабляешь хватку?

мне не нужно перекусить твою нежную шейку
[Ответ][Цитата]
пасть
Сообщений: 38
На: Предметная дискуссия про NLP
Добавлено: 02 сен 17 12:23
Цитата:
Автор: ANGULIMALA

Вы правы, СМЫСЛ ЭТО ОБРАЗЫ, но не сами матрицы пикселей а модели в которые они преобразуются биологическим CNN и не только картинки но и звуки\запахи\тактильность и тд. То есть нужно отображать слова в модели образов и обратно.
Как по Вашему можно связать образы с тексом?
[Ответ][Цитата]
NO.
Сообщений: 10700
На: Предметная дискуссия про NLP
Добавлено: 02 сен 17 14:48
Для компьютера и образы и текст просто информация, связыватся таблицей например.
Дети запоминают всё. Бывает чему-то учишь, он не воспринимает. А через некоторое время оказывается запомнил и все варианты объяснений, весь диалог и вообще всю обстановку. Уже приятелю точно так же растолковывает, в том же порядке, с теми же эмоциями. Обезьянничают, перенимают всё поведение, а не только знания.
[Ответ][Цитата]
гость
188.170.80.*
На: Предметная дискуссия про NLP
+1
Добавлено: 03 сен 17 1:10

а.> векторы
> мама мыла раму
п.> образы с текстом

обычно при построении сематического представления текста возникают (квази)графы, cети. К узлу графа можно подклеить схематический образ соотв. cущности - вопрос же в том (как отметил no) - а кто, собственно, будет воспринимать этот образ в компьютерной системе? ПРи понимании текста мы восстанавливаем схематический образ ситуации о которой идет речь (особенно в обиходном тексте) - вот типичня мама, вот типичная рама, вот мама в типичном действии мыть раму. При пострении ситуационной семантической сети СемП может быть обогащено ассоциативными подключениями узлов типа LOC (что действие происходит в доме) и ТЕМР (что вероятно действие происходит в выходной день), при образном представлении ситуации можно УВИДЕТЬ что действие происходит в доме - как бы тот же эффект что и при помощи знако-структурных репрезентаций. Но иногда 'глубоко' понять о чем идет речь в тексте можно именно на основе 'картинки' (как в хрестоматийном примере сидящих за круглым столом когда цепочка сидящих слева приводит к сидящему справа). Вопрос об имплементации образов в СемП т.о. упирается в образный процессор. Вернее в двойственную систему - подсистему образных репрезнтаций и подсистему экстракции из образов отношений и построения абстрактных графоподобных структур на этих отношениях и абстрактных узлах.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 03 сен 17 5:28
Смысл есть не только у текстовой информации, но и у визуальной, аудиальной, тактильной. Рассмотрим тактильную информацию. Вы можете щупать, но не видите и не слышите. Вот вы потрогали деревянную палку - она твердая, вытянутая, относительно легкая; потрогали тряпку - она мягкая, бесформенная и еще легче. На рецепторы поступала информация о распределении силы давления на пальцы, а вывод - о твердости, тяжести, форме. Это классификация, машобуч.
Смысл - это та информация, которая непосредственно используется в работе. Смысл - это сжатое изложение синтаксиса. Не нужно запоминать синтаксис (кроме тех случаев, когда синтаксис и представляет весь смысл).
В случае тактильной информации нет никакой необходимости запоминать точное распределение сил.

Некоторые думают: надо понять, как извлекать смысл из информации. Ничего не надо понимать, в каждой предметной области, в каждом виде информации, в каждой внешней среде интеллекта могут быть значительными разные смысловые содержания. Машина как бы должна сама "понять", какие информативные связи ей нужны, а какие нет. Это делается оптимизированным подбором весов. А смысл прячется в весах нейронной сети или в других прочих коэффициентах. Смысл не обязан храниться так, как вы его себе абстрактно представляете в голове, это просто сжатое изложение входных данных.
[Ответ][Цитата]
гость
188.170.75.*
На: Предметная дискуссия про NLP
Добавлено: 03 сен 17 6:23

m.> Смысл .. это просто сжатое изложение входных данных.

нет, cжатое представление данных это модель данных, даже не значение (интерпретация) данных - а смысл по фреге (хотя бы) это способ доступа к значению, почему выбирается именно это значение - ведь одним и тем же данным соответсвуют разные стпени сжатия, различающиеся представляюшие модели.

> Смысл - это сжатое изложение синтаксиса.

cинтаксис это синтаксис, смысл это прагмасемантика или прагматика. Как возможна формальная семантика (с соотв. синтаксисом семантических представлений), так возможна и формальная прагматика, c cинтаксисом прагматических представлений. А проблема в том, что реально смысл это функциональное состояние интерпретирующих механизмов и структур интерпретации. Синтаксис имеет собственную семантику и прагматику - синтаксический смысл это совокупность тех факторов, которые обуславливают выбор (при выражении) и интерпрептацию (при восприятии) синтаксических структур (ровно как в семантике - синтаксическая структура (напр. порядок слов или выбор модели управления) могут иметь разное cинтаксическое значение в зависимости от задачи выражения и готовности к восприятию).

> Это делается оптимизированным подбором весов.

ну, в прототипе реализована двойственность - неявное освоение грамматики сопряжено с явным обучением грамматике - одного DL NLP cкорее всего будет недостаточно - мы же не просто порождаем грамматически оформленную речь, но и рефлексируем ее содержание. Мы же все-таки не зомби в перманентном состоянии автоматического (бессознательного) письма..
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 03 сен 17 8:58
Цитата:
Автор: гость 188.170

А проблема в том, что реально смысл это функциональное состояние интерпретирующих механизмов и структур интерпретации.

Веса нейронной сети - это и есть состояние нейронной сети, а сама она является интерпретирующим механизмом... Получается, что прагматическая информация записана в весах нейронной сети. Все правильно.
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Предметная дискуссия про NLP
Добавлено: 03 сен 17 21:17
Изменено: 03 сен 17 21:22
Посмотрите видео хотя бы до середины, чтобы понять про смысл не с точки зрения фантазии и личной философии (лечитесь от домыслов), а с точки зрения науки:
https://www.youtube.com/watch?v=gj_PhQPplIQ&list=PLbwKcm5vdiSYL_yEwQ6JIICBA4dMtHNxo&index=7

Сам как раз вчера досмотрел до сюдова.
[Ответ][Цитата]
гость
188.170.74.*
На: Предметная дискуссия про NLP
Добавлено: 04 сен 17 2:31

M.> Веса нейронной сети - это и есть состояние нейронной сети,

нет, динамика многоуровнева - общее состояние нейропроцесса это и синаптические состояния, и коллективные нейронные состояния. Это моделируется гибридными системами - нейро-символическими. Важна одновременная интерактивная динамика символического и субсимволического уровня в когнитивнеом процессе (мы думаем и словами, и образами, и теми процессами, которые приводят к оформлению мысли в слова и образы - как минимум 3 уровня в полной конфигурации - субсимвольное (на нескольких подуровнях), cимвольное и символьное отрефлексированное (как вы упоминали про поле внимания)). Воплощенный символ это параметр порядка в иерархической динамике, что моделируется гибридизацией символического и нейропроцессингов (две виртуальных машины если нет соотв. аппаратной поддержки).

т.ч. прагматическая информация (актуальное состояние смысла) записана не столько в более-менее инерционных синаптических состояниях, а в той совокупности быстрых процессов нейронного ассемблирования (образы и символы) и кросс-ассемблирования, самоорганизция которых кондиционируется
текущей обстановкой, мотивационным состоянием, активностью семантической памяти, предшествующим смысловым состоянием.

> а с точки зрения науки:

боюсь, что о науке у вас самые начальные представления.
[Ответ][Цитата]
пасть
Сообщений: 38
На: Предметная дискуссия про NLP
Добавлено: 04 сен 17 4:17
Цитата:
Автор: NO.

Для компьютера и образы и текст просто информация, связыватся таблицей например.
Как на счет примера?

Что такое образ, как его будем представлять? Образом можно считать всё дерево распознаваний дающий отклик например "это яблоко\тётя\айфон", можно последний нейрон\классификатор, вектор его весов, или вообще порядковый номер нейрона во всей пронумерованной совокупности. То есть мапим все нейроны обученной CNN в слова и получаем ОСМЫСЛЕНИЕ. Затем когда нужно ответить на вопрос по словам получаем образы, потом из этих образов получаем другие слова как потенциальный ответ.

Мммм... это уже что то с чем можно работать...
[Ответ][Цитата]
пасть
Сообщений: 38
На: Предметная дискуссия про NLP
Добавлено: 04 сен 17 4:27
Изменено: 05 сен 17 8:07
Цитата:
Автор: гость


а.> векторы
> мама мыла раму
п.> образы с текстом

обычно при построении сематического представления текста возникают (квази)графы, cети. К узлу графа можно подклеить схематический образ соотв. cущности - вопрос же в том (как отметил no) - а кто, собственно, будет воспринимать этот образ в компьютерной системе? ПРи понимании текста мы восстанавливаем схематический образ ситуации о которой идет речь (особенно в обиходном тексте) - вот типичня мама, вот типичная рама, вот мама в типичном действии мыть раму. При пострении ситуационной семантической сети СемП может быть обогащено ассоциативными подключениями узлов типа LOC (что действие происходит в доме) и ТЕМР (что вероятно действие происходит в выходной день), при образном представлении ситуации можно УВИДЕТЬ что действие происходит в доме - как бы тот же эффект что и при помощи знако-структурных репрезентаций. Но иногда 'глубоко' понять о чем идет речь в тексте можно именно на основе 'картинки' (как в хрестоматийном примере сидящих за круглым столом когда цепочка сидящих слева приводит к сидящему справа). Вопрос об имплементации образов в СемП т.о. упирается в образный процессор. Вернее в двойственную систему - подсистему образных репрезнтаций и подсистему экстракции из образов отношений и построения абстрактных графоподобных структур на этих отношениях и абстрактных узлах.
Великолепное рассуждение! Полностью согласен!

Но мне кажется что простым мапингом текста в узлы графа(нейронов\классификакторов в иерархии) не обойтись, сама по себе знаковая система устроенна тоже через нейросети, это нейросеть над нейросетью, то есть воспринимающая структуру(паттерны активаций нейронов) образно-распознающей сети как данные на вход. В этом думаю вся соль будущего NLP и СИИ.
[Ответ][Цитата]
гость
188.170.74.*
На: Предметная дискуссия про NLP
Добавлено: 04 сен 17 5:18

п.> Только об этом не только языком чесать нужно а кодить блять, КОДИТЬ!!!

это да, но что именно вы собрались и можете кодить если вы не в теме, как сами признались, изучать вопрос не собираетесь, и 'чесание языком' не приветствуете?.. вообще, мало кто думает, что задачу NLU можно решить 'простым мапингом' и одними классификаторами. Ну распознали мы что данная лексика связана с определенным аффективно-тематическим блоком, вызвали его, распаковали, далее нужно унифицировать сущности блока с сущностями текста, значит УЖЕ не просто 'простой маппинг'.. потом нужно дополнить представление части текста подразумеваемым, чтобы восстановить глобальную связность текста, опять не просто 'простой маппинг'..
[Ответ][Цитата]
пасть
Сообщений: 38
На: Предметная дискуссия про NLP
Добавлено: 04 сен 17 5:32
Изменено: 05 сен 17 8:08
Цитата:
Автор: гость


п.> Только об этом не только языком чесать нужно а кодить блять, КОДИТЬ!!!

это да, но что именно вы собрались и можете кодить если вы не в теме, как сами признались, изучать вопрос не собираетесь, и 'чесание языком' не приветствуете?.. вообще, мало кто думает, что задачу NLU можно решить 'простым мапингом' и одними классификаторами. Ну распознали мы что данная лексика связана с определенным аффективно-тематическим блоком, вызвали его, распаковали, далее нужно унифицировать сущности блока с сущностями текста, значит УЖЕ не просто 'простой маппинг'.. потом нужно дополнить представление части текста подразумеваемым, чтобы восстановить глобальную связность текста, опять не просто 'простой маппинг'..
Это уже очень многое, с чегото нужно начинать, в современных библиотеках NLP вообще не проецируют образы в слова и обратно, тупо занимаются проекцией слов в слова по большим корпусам, всё усложняя логику проекций.
[Ответ][Цитата]
 Стр.3 (8)1  2  [3]  4  5  6  7  8<< < Пред. | След. > >>