GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.2 (5)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Сверточная нейронная сеть Михайло
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 21:00
Цитата:
Автор: Эгг

Ваши секреты добывания огня трением уже мало кому интересны в цивилизованном мире...

Типичные приемчики Эгга: примитивизировать чужие достижения, возвеличивать свои.

Ты же хотел поднять то ли СНС, то ли не СНС от 2003 года. Зачем тебе это старое барахло?

тем более сверточные сети - это для компьютерного зрения, а тебя интересует лингвистика, языкознание, в коих ты ЭКСПЕРТ.
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 17 ноя 18 21:17
Изменено: 17 ноя 18 22:32
Цитата:
Автор: Михайло
Ты же хотел поднять то ли СНС, то ли не СНС от 2003 года. Зачем тебе это старое барахло?

Это "старое барахло" до сих пор работает и ты можешь его посмотреть. Кроме того, там много интересных идей и библиотека, которую можно взять за основу, чтобы не писать рутину.

Цитата:
Автор: Михайло
тем более сверточные сети - это для компьютерного зрения, а тебя интересует лингвистика, языкознание, в коих ты ЭКСПЕРТ.

Меня интересует не лингвистика самая по себе, а онтология. То есть гибридные системы использования онтологии в задачах машинного обучения. Машинное обучение как нижний уровень (программирование 2.0) никуда деться не может, это мощный и эффективный инструмент. Заменить его не чем, да и не нужно. Что касается CV, то это не более, чем обработка сигналов, она точно также попадает в семиотическую схему: {образы материального мира} <-> текст <-> {образы понятийного пространства}, где левая часть - это CV, а правая часть схемы - это лингвистика. Лингвистика, как ни странно, довольно жестко связана со статистикой и аппроксимацией, посмотри, например, работы Налимова В.В. Они древние, но нисколько не потеряли своей актуальности.
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 6:26
Цитата:
Автор: Эгг
Лингвистика, как ни странно, довольно жестко связана со статистикой

Егоров ты там осторожнее с альтернативными вселенными, а то Чернов заведется. В настоящей вселенной все явления связаны со статистикой ))) Квантовый регистр и тот на гауссине стоит.
[Ответ][Цитата]
гость
104.236.74.*
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 7:28
Что тебе пдохого в альтернативной вселенной? Скаи, может ли ИНЕЛЛЕКТ работать в трёх+один-метии?
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 8:20
Почему нет?
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 8:25
Цитата:
Автор: Кусаюсь
В настоящей вселенной все явления связаны со статистикой ))) Квантовый регистр и тот на гауссине стоит.

Налимов пишет о другом. О том, что сама семантика - вороятностная и задается функцией распределения.
[Ответ][Цитата]
гость
188.170.74.*
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 8:28
даже во флатляндии питаться можно лизосомно, не теряя связности тела.. в высших размерностях возникает странная геометрия того рода что почти весь объем оказывается приграничным, типо трудности с размещением масс промежуточных нейронов..
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 11:07
Цитата:
Автор: Эгг
Налимов пишет о другом. О том, что сама семантика - вороятностная и задается функцией распределения.

Налимов это явление докорпусной лингвистики. Там больше парейдолии чем настоящих находок. В те времена обработка 10 мегабайт текста отдавало научным прорывом и тянуло на докторскую. Сегодня 100 экзобайт это скромно. Идеи найденные при обработке 10 мегабайт сильно бледнеют в море 100 экзобайт. Вообще все находки лингвистики связанные с обработкой текста сделанные до 2010 года мягко говоря "допотопные". Например вся методика расчета частотных словарей вообще никуда не годиться. Хотя по частотным словарям и иже с ними гора диссертаций защищена.

Вообще я про Налимова забыл ))) Всегда считал что вероятностные распределения путь в никуда. Вот будет нечем заняться пересчитаю его идеи на полном корпусе.

Честно говоря все вероятностные модели мало чего стоят. Они очень быстро разрушаются при росте объемов данных. Работы Менделя 50 лет пылились в том числе по этой причине.
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 11:09
Изменено: 18 ноя 18 12:00
Цитата:
Автор: гость
даже во флатляндии питаться можно лизосомно, не теряя связности тела.. в высших размерностях возникает странная геометрия того рода что почти весь объем оказывается приграничным, типо трудности с размещением масс промежуточных нейронов..
А когда через день вы сами читаете ранее написанное вы понимаете о чем писали?
[Ответ][Цитата]
Вольфрамовый клaпaн
Сообщений: 13070
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 11:43
Цитата:
Автор: Кусаюсь
Налимов это явление докорпусной лингвистики. Там больше парейдолии чем настоящих находок.

Налимов говорил о другом. О том, что смыслы существуют в своей непроявленной форме. А на уровне текстов (то есть Вашей любимой дистрибутивной семантики, о которой Вы говорите) происходит "квантование", дискретизация и структурирование в какую-то грамматическую форму. И эта налимовская мысль кажется мне развитием семиотики (которую, в свою очередь, я люблю).

И, нам нужно сворачивать это обсуждать здесь, это оффтоп. Давайте у меня, в "Справке 2.0", если Вы не будет ругаться, я снимаю ограничение на Ваше присутствие. Обсудим налимовскую модель.
[Ответ][Цитата]
rrr3
Сообщений: 11857
На: Сверточная нейронная сеть Михайло
Добавлено: 18 ноя 18 23:08
Изменено: 18 ноя 18 23:08
СИИ-шникам можно расходиться! Михайло все уже придумал! Все проблемы сняты!
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 20 ноя 18 10:16
Старый дурак, иди придумывай новые фантазии про сильный интеллехт. Предлагаю рассмотреть интеллект, который усиливает сам себя с выхода на вход.

***

Короче, СНС очень вредная. Очень чувствительна к выбору скорости обучения. Чуть в сторону - начинает тупить.

Вот сейчас 20 минут гонял одну архитектуру на 40000 примерах. Получилась точность 88,45%. но интересно следующее: в результате обучения оказалось, что нейросеть абсолютно не хочет признавать цифру "8" (ни одного предсказания!). Остальные цифры получились довольно изумительно. Если бы цифра "8" не подкачала, то можно было бы дойти до 97%.

Не понимаю, в чём проблема тупизны. Надо внедрять различные методы регуляризации и выхода из локальных максимумов: DropOut, DropConnect, Batch Normalization. Что ещё?
[Ответ][Цитата]
Кусаюсь
Сообщений: 974
На: Сверточная нейронная сеть Михайло
Добавлено: 20 ноя 18 10:37
У Мирча Элиаде много чего интересного по этому вопросу.
[Ответ][Цитата]
гость
62.210.157.*
На: Сверточная нейронная сеть Михайло
Добавлено: 20 ноя 18 10:42
Цитата:
Автор: Михайло

Короче, СНС очень вредная. Очень чувствительна к выбору скорости обучения. Чуть в сторону - начинает тупить.

Вот сейчас 20 минут гонял одну архитектуру на 40000 примерах. Получилась точность 88,45%. но интересно следующее: в результате обучения оказалось, что нейросеть абсолютно не хочет признавать цифру "8" (ни одного предсказания!). Остальные цифры получились довольно изумительно. Если бы цифра "8" не подкачала, то можно было бы дойти до 97%.

Не понимаю, в чём проблема тупизны. Надо внедрять различные методы регуляризации и выхода из локальных максимумов: DropOut, DropConnect, Batch Normalization. Что ещё?
CNN - сложный алгоритм, можно 100500 раз ошибиться и получить "похожие на правду" результаты, но "с гильцой", 88% - очень слабый резултат, даже 97% - может и обычный двуслойный(один скрытый) MLP, и многое прочие(парзен, kNN, бустинг над деревьями и тпр.)

Старайтесь больше
[Ответ][Цитата]
Михайло
Сообщений: 2366
На: Сверточная нейронная сеть Михайло
Добавлено: 20 ноя 18 18:02
Во! Получил рекордные 95,15% всего за 5 минут, простая другая архитектура.
[Ответ][Цитата]
 Стр.2 (5)1  [2]  3  4  5<< < Пред. | След. > >>