GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.7 (8)
<<
< Пред.
|
След. >
>>
Поиск:
Автор
Тема: На: Остались ли тут специалисты, которые разбираются в ИИ
гость
84.16.224.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 02 сен 25 10:47
всё бы ничего, но мы теперь пользователи, даже хуже китайцев, тупые видимо
[
Ответ
][
Цитата
]
Сергей Гаврилов
Сообщений: 206
На: Остались ли тут специалисты, которые разбираются в ИИ
+1
Добавлено: 03 сен 25 4:21
Цитата:
Автор: tac2
Покажите, что у вас вышло и что вы делали.
> а самые простые классификаторы(knn, rf) дают более 99%
Это где такая информация?
Извиняюсь за поспешные выводы, пошаманил более внимательно, всё работает, со спиралькой справляется, но пока скорость пока отстает даже от kNN, но зато качество уже подтянулось до 99%. Так что вероятно потенциал есть у идеи.
Код:
https://codefile.io/f/Jyi4YNG720
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 сен 25 11:06
Изменено: 03 сен 25 11:43
> Сергей Гаврилов
Спасибо, особенно за код, очень важны независимые подтверждения. Я постараюсь глянуть на него, возможно проблема в скорости из-за неоптимального кодирования, особенно если вы реализуете перцептрон буквально.
Первая оптимизация, которую можно сделать, отойдя от классической реализации, это заметить, что связи S-A фиксированные, а значит их можно посчитать один раз, но запомнить придется для каждого примера. Да это больший расход памяти, но не критично и это дает хороший прирост к скорости обучения.
P.S. Почему же вы не сравниваете с бэкпропом
P.S.S. Вы наверно сможете быстрее ответить, чем я доберусь до запуска вашего кода, вы ввели learningRate (аналогично бэкпропу), что будет если вы его сделаете =1 ?
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13205
На: Остались ли тут специалисты, которые разбираются в ИИ
+1
Добавлено: 03 сен 25 12:16
Вот имплементация ув. Гаврилова,
портированная на C++17,
оптимизированная по скорости выполнения
https://codefile.io/f/MCh5MKK4Gp
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 сен 25 13:20
> Ꜿгг
ты еще с нами? Один нормальный среди сошедших с ума
P.S. Можешь переписать хоть на ассемблер - скорости это не добавит, проверено
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13205
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 сен 25 13:30
Изменено: 03 сен 25 13:32
Цитата:
Автор: tac2
> Ꜿгг
ты еще с нами? Один нормальный среди сошедших с ума
P.S. Можешь переписать хоть на ассемблер - скорости это не добавит, проверено
По сравнению с исходным кодом примерно на порядок быстрее)
Ты, видимо, не очень хорошо себе представляешь, от чего зависит скорость вычислений))
Конечно, я с вами, я вас изучаю
И я не один нормальный, я насчитал пятерых нормальных здесь, если банальность ув. daner'а принимать за нормальность тоже, а куда деваться -- банальность это не болезнь)))
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 03 сен 25 13:45
Цитата:
Автор: Ꜿгг
По сравнению с исходным кодом примерно на порядок быстрее)
Ты просто перевел на С++? Можешь дать численное сравнение в секундах, типа было 120, стало 35 и чтобы на одном компьютере (и желательно указать ориентировочную мощность)
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13205
На: Остались ли тут специалисты, которые разбираются в ИИ
+1
Добавлено: 03 сен 25 13:52
Изменено: 03 сен 25 16:40
Цитата:
Автор: tac2
Ты просто перевел на С++? Можешь дать численное сравнение в секундах, типа было 120, стало 35 и чтобы на одном компьютере (и желательно указать ориентировочную мощность)
Было портировано с оптимизацией по скорости выполнения. Сейчас и kNN, и розенблатт на этих тестовых данных выполняется меньше секунды с качеством более .99, розенблатт по качеству чуть лучше соседей, но не всегда))
upd...
ушел с рабочего компьютера на "обычный", вот такой тайминг:
Knn: calculation time: 0.031686 seconds, accuracy: 99.80%
Rosenblatt Perceptron: calculation time: 0.194879 seconds, accuracy: 99.70%
[
Ответ
][
Цитата
]
Сергей Гаврилов
Сообщений: 206
На: Остались ли тут специалисты, которые разбираются в ИИ
+1
Добавлено: 05 сен 25 5:53
Убрал лёрнрейт(=1), фичи спроджектил один раз, как велели, ещё заменил веса интами, оказалось эпох обучения надо всего десяток, на 10к семлов, а на больших сетах может меньше.
Сюрприз, kNN теперь нервно курит в сторонке при 10к точек прирост в >150х(С++), но в сравнении с деревом, пока отстаёт, но только 1.5 раза на плюсах, на шарпе на порядок. Но это же дерево и ОДНО дерево, хотя оно может и не оптимальное. В общем штука рабочая, скорей всего можно ещё прооптимайзить, но уже вполне что-то потенциально ценное рисуется, особенно если придумать как проекции делать на основе данных, а не рандомно.
Пропорции времени относительно kNN
У меня на ноуте(~1.3 gflops) так:
C#:
https://codefile.io/f/LaHdzES5IX
Knn Accuracy: 99.78%
StopWatch: TimeLag: 148358.4653
SimpleDecisionTree Accuracy: 99.87%
StopWatch: TimeLag: 245.1331
RosenblattPerceptron Accuracy: 98.61%
StopWatch: TimeLag: 2210.0583
knn:100%
tree:0.17%
rosenblatt:1.49%
C++("плюшевый" deepseek port):
https://codefile.io/f/zrZWsVrncz
class Knn Accuracy: 99.785%
TestMl: TimeLag: 64766ms
class SimpleDecisionTree Accuracy: 99.86%
TextMl: TimeLag: 307ms
class RosenblattPerceptron Accuracy: 99.115%
TestMl: TimeLag: 446ms
knn: 100%
tree: 0.47%
rosenblatt: 0.68%
Самый прикол что розенблат работает существенно быстрее(у меня так вышло) чем если линейную регрессию использовать в качестве классификатора, как это делают в ELM моделях, но может это на скорую руку. Нужно будет ещё с MLP сравнить, но уже понятно кто победит.
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
+1
Добавлено: 05 сен 25 11:06
Изменено: 05 сен 25 11:10
Ну вот, уже что-то похожие на правду ... а сколько людей в теме не в курсе? У Эгг`а надеюсь челюсть отвисает?
Сравнение c MLP было бы интересно. Да и возьмите задачу посложнее, скажем четность
Цитата:
Задача чётности заключается в том, что на вход подаются бинарные векторы фиксированной длины, а выход определяется как 1, если число единиц во входе нечётное, и 0 — если чётное. Таким образом, для каждого входного вектора требуется учесть глобальное свойство всей комбинации, а не локальные признаки отдельных разрядов.
или еще сложнее код Грея
Цитата:
Код Грея — это способ пронумеровать все двоичные комбинации так, чтобы соседние числа отличались ровно на 1 бит.
private int GrayCode(int binary)
{
int ret = binary ^ (binary >> 1);
return ret;
}
P.S. Ну и потом, что-то мне подсказывает, что можно вообще отказаться от умножения в реализации, там нужно только суммирование. Если не путаю там просто умножение на знак. Хотя это уже не принципиально.
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13205
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 05 сен 25 12:13
Цитата:
Автор: tac2
У Эгг`а надеюсь челюсть отвисает?
В связи с чем? Что существуют альтернативные MLP методы машинного обучения? Да, их очень много))) Видишь ли, Серёжа, методы выбираются под задачу и её требования. А не наоборот. Напиши на розенблатте задачу MNIST, которая была бы лучше CNN -- тогда будет иметь смысл что-то говорить, а пока это просто твоя сверхценная идея, не более
[
Ответ
][
Цитата
]
trаdinglab.ai
Сообщений: 2
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 05 сен 25 13:57
А как на счет форекса или крипты? Можно ли этой штукой узнать куда двинется евробакс или биток завтра? Я бы за это заплатил.
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 05 сен 25 16:16
Цитата:
Автор: Ꜿгг
Напиши на розенблатте задачу MNIST, которая была бы лучше CNN
О как все изменилось, неделю назад ты кричал, что я сошел с ума )) А я разве тебе не давал ссылку на решение MNIST? На хабре точно давал, давай и тебе повторю
Kussul E., Baidyk T., Kasatkina L., Lukovich V. Перцептроны Розенблатта для распознавания рукописных цифр
Не благодари.
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 05 сен 25 16:17
Цитата:
Автор: trаdinglab.ai
А как на счет форекса или крипты? Можно ли этой штукой узнать куда двинется евробакс или биток завтра? Я бы за это заплатил.
Ставки на спорт? Это мошенничество, а не наука.
[
Ответ
][
Цитата
]
tac2
Сообщений: 398
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 05 сен 25 16:24
Цитата:
Автор: Сергей Гаврилов
если придумать как проекции делать на основе данных, а не рандомно.
Просто интересно, что вы называете проекцией и почему это вы называете проекцией? Это согласно какой то устоявшейся терминологии, откуда она берет начало?
[
Ответ
][
Цитата
]
Стр.7 (8)
:
1
...
3
4
5
6
[7]
8
<<
< Пред.
|
След. >
>>
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net