GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.5 (6)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Остались ли тут специалисты, которые разбираются в ИИ
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 18:23
Цитата:
Автор: tac2
Ну, ок, тогда это не перцептрон

Перцептрон Розенблатта, просто на другом языке, эффективном и компактном)))
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 18:32
Цитата:
Автор: Ꜿгг
Перцептрон Розенблатта, просто на другом языке, эффективном и компактном)))


Нет, это не перцептрон Розенблатта. Мы уже поняли, что ты не знаешь что это такое. Возможно ты сделал бэкпроп, или что-то аналогичное. Дай код текстом, а не картинкой, найду время повожусь с этим.

Но ты проигнорировал, что это другая задача. И не замерил скорость обучения.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 18:43
Цитата:
Автор: tac2
Нет, это не перцептрон Розенблатта. Мы уже поняли, что ты не знаешь что это такое. Возможно ты сделал бэкпроп, или что-то аналогичное. Дай код текстом, а не картинкой, найду время повожусь с этим. Но ты проигнорировал, что это другая задача. И не замерил скорость обучения.

Нет, это именно перцептрон Розенблатта. Я не знаю, что вы там поняли и сколько вас там, но ты не умеешь в С++, это печально. Шарп - это язык веб-разработчиков, это не для вычислений. И тебе уже нужно как-то НАЧИНАТЬ различать метод и объект. Перцептрон - это объект, backprop - это метод, очень неграмотно их сравнивать, это как сравнивать сложение с четными числами
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 18:47
Изменено: 27 авг 25 18:56
Цитата:
Автор: Ꜿгг
Нет, это именно перцептрон Розенблатта.


Печально. И вот с таким бредом в головах, работают какие никакие специалисты.

Давай начнем с простого - у перцептрона нет никакого смещения b.

И что ты ему подал на вход? Готовые веса? А как ты получил эти w? Тут perceptron ({1.0, 1.0}, 0.5) - что это если не фиксированные веса со смещением?

Тут нет реализации обучения.

Для знающих. Эгг реализовал - прямой проход бэкпропа и выдает его за перцептрон Розенблатта


P.S. Ладно пошутили и хватит, есть адекватные специалисты? Дмитрий Стволовой?
[Ответ][Цитата]
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 18:56
Цитата:
Автор: tac2
Для знающих. Эгг реализовал - прямой проход бэкпропа и выдает его за перцептрон Розенблатта

Но решение-то точное
Что касается обучения, зачем тебе с шириной входа 14 битов какое-то обучение... эти латвийские учёные такие учёные))
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 18:59
Изменено: 27 авг 25 19:08
Цитата:
Автор: Ꜿгг
Но решение-то точное


Это даже не решение, ты решение не нашел, а засунул в алгоритм. Ты или серьезнее или иди с богом, на троллей мне времени жалко.

> зачем тебе с шириной входа 14 битов
Оно показывает возможности одного отдельно взятого компьютера.

Эгг, не спамь, подтяни мат. часть и реализуй хотя бы обратный проход, а не готовые веса, которые нужно найти подставляй в задачу. Ну, не серьезно. Уровень троллинга детского класса.

[Ответ][Цитата]
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:08
Цитата:
Автор: tac2
> зачем тебе с шириной входа 14 битов
Оно показывает возможности одного отдельно взятого компьютера.

Это тебе к Вишневскому, он полбита использует для генерации бесконечности. Серёж, ты сблындил и у тебя крыша уехала? Ты в самом деле хочешь на этих дегенерациях какой-то стартап строить?
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:09
> Ты в самом деле хочешь на этих дегенерациях какой-то стартап строить?
Я где то говорил про стартап?
[Ответ][Цитата]
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:12
Цитата:
Автор: tac2
> Ты в самом деле хочешь на этих дегенерациях какой-то стартап строить?
Я где то говорил про стартап?

А чего ты народ какой-то зовешь? Здесь (кроме меня и Стволового) только придурки))
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:16
Изменено: 27 авг 25 19:20
Цитата:
Автор: Ꜿгг
А чего ты народ какой-то зовешь? Здесь (кроме меня и Стволового) только придурки))


Это печально Вот так и получается, что недоИИ-Дипсик и то больше может посоветовать. Деградация мозгов. Не с кем поговорить.

Как собственно и восприятие - "зовешь народ" обсудить казалось бы простые вещи, а откуда то возникает болтовня о деньгах, лидерах, стартапах и прочей ерунде. И обсуждать то не с кем.
[Ответ][Цитата]
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:18
Цитата:
Автор: tac2
Это печально

Это абсолютно нормально, если тебе нужно поговорить -- есть LLM, если тебе нужно что-то написать -- есть LLM. Форумы умерли. Через какое-то время, когда фейков будет больше 90% умрут и соцсети)
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:21
Изменено: 27 авг 25 19:27
> Форумы умерли
А люди? + я дополнил выше.

LLM - это уровень унитаза ) Разве что Hello, World на в лямдах на С++ писать
[Ответ][Цитата]
Ꜿгг
Сообщений: 13184
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:27
Изменено: 28 авг 25 5:27
Цитата:
Автор: tac2
> Форумы умерли
А люди? + я дополнил выше.

Pet проектами занимаются те, кто собирается искать работу. Люди, которые разговаривают с DeepSeek не очень подходят для плодотворной работы, как мне кажется)
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:31
Изменено: 27 авг 25 19:33
Когда станет понятно - заходи. Трепаться же на около темы не нужно, буду удалять, не обижайся.


Если не понятно про 14 битов - спроси, а фигню всякую писать не нужно.
[Ответ][Цитата]
tac2
Сообщений: 379
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 27 авг 25 19:44
Если кому то сложно было понять мое сообщение, есть вариант обратится к Дипсику Он разжует лучше, это кстати хорошая его особенность. Я спросил, как он понял мое сообщение. И он лучше чем тролли типа Эгга понял. Почему это хорошая особенность? Исключительно потому, что можно сказать, что ИИ понимает лучше тебя - тролль.

------------------------------------------

1. Основной посыл и контекст
Вы представляете сообществу результат своей работы — реализацию перцептрона Розенблатта на GitHub. Это не просто учебный пример, а серьезный исследовательский проект, где вы исследуете границы возможностей этой модели и пробуете разные подходы для оптимизации.

2. Структура вашего проекта
Вы не просто выложили код, а проделали системную работу, предложив три различные архитектуры:

NeironNetR: Эталонная, классическая реализация. Нужна для сравнения и как точка отсчета.

NeironNetA: Версия с оптимизацией по памяти (кэширование активности среднего слоя). Это классический компромисс в программировании: жертвуем памятью (RAM) ради выигрыша в скорости вычислений (CPU).

NeironNetB: Блочная версия. Это более экспериментальный подход, который меняет не внутреннюю механику, а алгоритм подачи данных на обучение (batch learning), что может влиять на скорость сходимости.

Отдельно и, видимо, с наибольшей гордостью, вы реализовали всё это на CUDA для использования мощности GPU, что должно было дать колоссальный прирост производительности.

3. Ключевая проблема и призыв
Главная боль и причина вашего сообщения — производительность не оправдала ожиданий.

Вы ожидали, что версии на CPU будут работать медленно, и это подтвердилось.

Но главная загадка: Реализация на CUDA работает "хуже". Под "хуже" вы, скорее всего, подразумеваете, что она не демонстрирует того кратного ускорения, которое обычно дает GPU. Возможно, она даже работает сопоставимо с CPU или лишь ненамного быстрее, что абсолютно не оправдывает сложность ее реализации.

Ваш пост — это открытый призыв к сообществу. Вы ищете не просто зрителей, а коллег-энтузиастов или экспертов, которые посмотрят код и помогут найти узкое место (bottleneck), объясняющее эту аномалию. Вы открыты к дискуссии и готовы принимать конструктивную критику.

4. Научно-исследовательский контекст
Вы четко обозначаете:

Задача: Четность/обобщение XOR. Это классическая задача, которая не решается однослойным перцептроном и идеально подходит для демонстрации многослойной модели Розенблатта. Она сложная для обучения, но ее результат (0 или 1) легко проверить.

Цель эксперимента: Не сама задача, а измерение производительности алгоритма на ней.

Ключевое свойство модели: Вы подчеркиваете фундаментальное отличие от backpropagation — перцептрон Розенблатта может обучаться до нулевой ошибки на обучающей выборке. Вопрос не в точности, а в масштабируемости.

Предел возможностей: Вы установили практический предел для ваших реализаций — 14 входных бит. Это важное наблюдение, которое показывает, что вы тестировали модель на реально сложных задачах, а не на игрушечных примерах.
[Ответ][Цитата]
 Стр.5 (6)1  2  3  4  [5]  6<< < Пред. | След. > >>