GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.10 (10)<< < Пред.   Поиск:  
 Автор Тема: На: Остались ли тут специалисты, которые разбираются в ИИ
Viсtоr G. Tsaregorodtsev
Сообщений: 15
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 16 сен 25 6:07
Цитата:
Автор: tac2

> аdmax
Вы его проверяли?

Почти уверен, что он не даст тоже самое что с использованием torch, вопрос только в размере катастрофы
Вот правильно, торч, тензорфлоу и подобное — это ваше, а лучше не издевайтесь над собой, а как все пользователи юзайне питон как апи.
[Ответ][Цитата]
аdmax
Сообщений: 302
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 16 сен 25 9:23
Цитата:
Автор: tac2

он не даст тоже самое что с использованием torch, вопрос только в размере катастрофы
Цитата:
Автор: Viсtоr G. Tsaregorodtsev
между КУЕМ и пальцем.
проехали
[Ответ][Цитата]
tac2
Сообщений: 411
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 16 сен 25 20:41
Изменено: 16 сен 25 23:49
> В моём MLP >5000 строк кода(в том числе ассемблера и вызовов ядра) и учится от до 98.5%
Ну, т.е. вы хотели мне продать, то что мне не нужно, и там где я по прежнему прав. Бэкпроп не сходится - и вы подтверждаете, что даже ваш за деньги до 98.5%

И это при том, что перцептрон учится до 100%.

Что же такого засунули в torch?

upd. В общем я проверил. Назовем это "наивная реализация BackProp", это то, что показывает DeepSeek и писали тут все кому не лень. Её отличительная черта, что есть исключительно learningRate, которую нужно подбирать. И никаких других оптимизаций (типа там моментов, Adam и прочего). Что засунули в torch по-прежнему остается вопрос.

Это конечно именно та реализация BackPropa, которую я критиковал еще 10 лет назад, и она конечно же, хуже перцептрона. Но теперь у нас есть реализация в torch и она существенно лучше.

Проблемы наивной реализации бэкпропа уже видны на задаче четности с 10 битами, последние 4 ошибки четко застревают, с примерно 10000 шага, и нужно 21675 шага чтобы это решить. Но это для 30 нейронов в среднем слое.

Перцептрон со случайным SA связями решает это на раз, но ему нужно минимум 1000 А элементов, которые потом можно сократить. И на больших задачах это лучше чем наивная организация.

Но торч бьет и то и другое, у него можно с 30 нейронами обучить 16 бит, да тоже будет под 10000 итераций, но это возможно.

Это означает лишь то, что бэкпроп улучшили не бэкпроповскими штуками-дрюками, и почему так же
(торч закрыт и исходников нет) нельзя сделать с перцептроном, остается вопросом.
[Ответ][Цитата]
Viсtоr G. Tsaregorodtsev
Сообщений: 15
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 17 сен 25 4:28
Цитата:
Автор: tac2

> В моём MLP >5000 строк кода(в том числе ассемблера и вызовов ядра) и учится от до 98.5%
Ну, т.е. вы хотели мне продать, то что мне не нужно, и там где я по прежнему прав. Бэкпроп не сходится - и вы подтверждаете, что даже ваш за деньги до 98.5%

И это при том, что перцептрон учится до 100%.

Что же такого засунули в torch?
Это вы про что сейчас говорите? Про MNIST? Какие ещё к черту "100%" в ML, на тестовой выборке, на данных с шумом...

Дорогой мой, вы плаваете в совсем базовых концепциях(не в курсе что такое оверфитинг, обобщающая способность и тп.), нам пока с вами не о чем говорить, посмотрите курс Воронцова что ли, для начала. Нужно 100% на трейне, берите ближайшего соседа и наслаждайтесь, а потом удивляйтесь если на тесте будет ерунда.

Если хотите хотя бы подобия предметного разговора, четко описывайте датасет(файл, алгоритм генерации) и модель с её конфигурацией. Например прогоните MNIST на торче, на конфигурации [ 784, 256, 128, 10 ] [ relu, relu, softmax ] лёрнрейт 0.1, батчей 32, эпох 20
[Ответ][Цитата]
tac2
Сообщений: 411
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 17 сен 25 5:57
Изменено: 17 сен 25 6:06
> оверфитинг
это отмазка дурачков, которые не могут обучить бэкпропом, короче все с вами ясно, я был о вас лучшего мнения ...

> Нужно 100% на трейне, берите ближайшего соседа
да, про это собственно и шла речь, но не нужно мне тут подсовывать другие алгоритмы, это нужно на бэкпропе .. мы же сети обсуждаем или где?

Вы вообще не внимательно читаете, я же даже для таких умников как вы критерий придумал
> или вы верующий в т.н. переобучение? И тогда добавляем ошибки из обучающей выборки к общей

ваш способ пускать пыль к глаза удивляет, от того, что вы не можете обучить 100% на обучающей выюорке, эти ошибки никуда не пропадают, это же прямые ошибки

> четко описывайте датасет(

> на задаче четности с 10 битами
Вы может не знаете, что такое задача четность? или настолько не уважаете других, что не читаете то что пишут?

уровень прогноза сейчас вообще пофиг, мы обсуждаем нагрузочные тесты.
[Ответ][Цитата]
Viсtоr G. Tsaregorodtsev
Сообщений: 15
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 17 сен 25 6:15
Цитата:
Автор: tac2

> оверфитинг
это отмазка дурачков, которые не могут обучить бэкпропом, короче все с вами ясно, я был о вас лучшего мнения ...

> Нужно 100% на трейне, берите ближайшего соседа
да, про это собственно и шла речь, но не нужно мне тут подсовывать другие алгоритмы, это нужно на бэкпропе .. мы же сети обсуждаем или где?

Вы вообще не внимательно читаете, я же даже для таких умников как вы критерий придумал
> или вы верующий в т.н. переобучение? И тогда добавляем ошибки из обучающей выборки к общей

ваш способ пускать пыль к глаза удивляет, от того, что вы не можете обучить 100% на обучающей выюорке, эти ошибки никуда не пропадают, это же прямые ошибки

> четко описывайте датасет(

> на задаче четности с 10 битами
Вы может не знаете, что такое задача четность? или настолько не уважаете других, что не читаете то что пишут?

уровень прогноза сейчас вообще пофиг, мы обсуждаем нагрузочные тесты.
Почитайте в дипсике или погуглите, про оверфит и обобщающую способность алгоритмов ML, не позорьтесь, а также кривые обучения на трейне и тесте и почему не нужно обучать на трейне до 100%, из-за чего это плохо. И не нужно обзываться, вы просто кое-что, весьма существенное кое-что, не знаете, это за пол часа можно поправить. "Дурачки" это про тех кто стоит на своём и не хочет учиться.


Затем возьмите мнист и поставьте эксперимент, а не ксоры и спирали, где трейн это тест. Получите 98% на тесте, замерьте за сколько прошло обучение и потом я вам покажу сколько это занимает на моём MLP, по сравнению с вашими торчами и тензорфловами.
[Ответ][Цитата]
tac2
Сообщений: 411
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 17 сен 25 8:49
Изменено: 17 сен 25 8:51
> почему не нужно обучать на трейне до 100%, из-за чего это плохо
Это бред собачий, как и все подобные объяснения ..

Еще раз, если вы не можете обучить на 100% мне это не интересно от слова вообще.
[Ответ][Цитата]
 Стр.10 (10)1  ...  6  7  8  9  [10]<< < Пред.