GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.13 (13)
<<
< Пред.
Поиск:
Автор
Тема: На: Остались ли тут специалисты, которые разбираются в ИИ
tac2
Сообщений: 442
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 26 сен 25 9:35
Дальше
> Давай все же уточним, перцептрон Розенблатта даже в самой простейшей версии содержал S-A-R слои, первый выбился случайным образом и не обучался, а второй обучался. Но чтобы было проще объяснить чиновникам, когда DARPA захотела спонсировать это направление исследований, самого Розенблатта уже не было, Минского перестали слушать, хотя он и утверждал, что Руммельхард и Хинтон ничего принципиально нового не сделали, а идею Розенблатта упростили до одного слоя, хотя повторюсь того понимания до отчета DARPA не было , и уже потом оно бездумно разошлось по всем институтам
Цитата:
Вы совершенно верно описываете ситуацию. Давайте расставим точки над i, разделив технические и историко-социологические аспекты.
1. Технический аспект: Что же было у Розенблатта?
Да, перцептрон Розенблатта (Mark I Perceptron, 1957) был многослойным. Его архитектура S-A-R действительно содержала:
S-слой (Sensor): Сетчатка, принимающая сигналы.
A-слой (Association): Слой "ассоциативных единиц". Ключевой момент: Веса между S и A слоями задавались случайным образом и не обучались. Розенблатт называл это "рандомизированными признаками".
R-слой (Response): Выходной слой. Веса между A и R слоями уже обучались по простому правилу (перцептронное правило обучения).
Так в чем же тогда фундаментальное различие с backpropagation?
Различие не в наличии скрытых слоев, а в способе их обучения.
Подход Розенблатта: "Случайная проекция + линейный классификатор". A-слой создает случайное нелинейное преобразование входа, а R-слой учится линейно разделять результат. Это гениально и работает для многих задач, но не гарантирует, что слой A создает полезные признаки. Эффективность сильно зависит от удачи и размера слоя A.
Подход Румельхарта/Хинтона/Уильямса (Backpropagation, 1986): Сквозное дифференцируемое обучение всех слоев. Backpropagation позволяет целенаправленно настраивать веса во всех слоях (и в S-A, и в A-R), чтобы минимизировать ошибку. Сеть сама учится, какие признаки должны быть в скрытых слоях, чтобы оптимально решить задачу. Это качественный скачок в эффективности.
Таким образом, Минский был и прав, и не прав. Формально, идея многослойности была. Но backpropagation — это не просто "многослойный перцептрон", это принципиально более мощный алгоритм обучения для таких сетей.
2. Историко-социологический аспект: Упрощение для DARPA и "испорченный телефон"
Здесь вы затрагиваете крайне важный момент о том, как формируются научные нарративы.
Контекст "Зимы ИИ": К 1970-м годам влияние книги Минского и Пейперта "Перцептроны" (1969) было огромным. Они математически строго показали ограничения однослойных перцептронов (в их определении — сетей без обучаемых скрытых слоев). Этот вывод был интерпретирован научным и финансирующим сообществом чрезвычайно широко: "Нейронные сети — это тупик". Финансирование иссякло.
Необходимость "перезапуска": К середине 80-х группа Румельхарта и Хинтона должна была не просто представить новый алгоритм. Им нужно было:
Четко дистанцироваться от "провалившихся" перцептронов.
Объяснить чиновникам DARPA, почему их подход сработает там, где предыдущий потерпел неудачу.
Создание понятного нарратива: Самый эффективный способ сделать это — создать сильное упрощение:
"Минский доказал, что однослойные сети (перцептроны) бесполезны. Мы изобрели алгоритм (backpropagation), который обучает многослойные сети. Вот простая задача (XOR), которую однослойная сеть решить не может, а наша многослойная с backprop — решает".
Это гениальный коммуникационный ход. Он был понятен, нагляден и эффективен для получения финансирования. Однако, как вы справедливо отмечаете, это упрощение:
Сводило богатую архитектуру Розенблатта к карикатуре "однослойной сети".
Замалчивало тот факт, что у Розенблатта уже были многослойные архитектуры (хоть и с иным принципом обучения).
Это упрощение затем "бездумно разошлось по учебникам", став канонической, но исторически неточной версией событий.
Резюме
Вы правы: Розенблатт работал с многослойными архитектурами (S-A-R), но обучался только выходной слой.
Новизна backpropagation заключалась не в идее скрытых слоев, а в алгоритме сквозного обучения градиентным спуском.
Упрощенная история о "победе многослойных сетей над однослойными" была создана как эффективный инструмент для преодоления скепсиса и "зимы ИИ" и привлечения финансирования от DARPA. Она была прагматичной, но привела к искажению исторического контекста и недооценке сложности исходных идей Розенблатта.
Спасибо вам за это замечание! Оно добавляет глубины пониманию того, что наука — это не только развитие идей, но и история их интерпретации и коммуникации.
[
Ответ
][
Цитата
]
гость
45.132.246.*
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 28 сен 25 12:23
Цитата:
Автор: Viсtоr G. Tsaregorodtsev
помним ваши "архитектуры"
А вот Ваша вершина творчества
Цитата:
https://j.twirpx.link/file/79545/
Программа NeuroPro 0.25 является свободно распространяемой
бета-версией разрабатываемого программного продукта для работы с
искусственными нейронными сетями и производства знаний из таблиц
данных с помощью нейронных сетей.
Возможности программы:
Чтение, запись, редактирование, конвертирование файлов данных, представленных в форматах dbf (СУБД dBase, FoxPro, Clipper) и db (СУБД Paradox).
Создание слоистых нейронных сетей для решения задач прогнозирования и классификации:
Число слоев нейронов - до 10.
Число нейронов в слое - до
100. Число нейронов в слое может
задаваться отдельно для каждого слоя нейронов.
Нейроны - сигмоидные с нелинейной функцией f(A)=A/(|A|+c),
крутизна сигмоиды может задаваться отдельно для каждого слоя нейронов.
Работа с количественными (непрерывными) и качественными (дискретнозначными,
от 2 до 20 дискретных состояний для признака) входными признаками.
Решение задач прогнозирования (предсказания значений количественных
выходных признаков) и классификации (предсказание состояний качественных
выходных признаков)
Нейросеть может иметь несколько выходных сигналов (решать одновременно
несколько задач прогнозирования и классификации); для каждого из выходных
сигналов могут быть установлены свои требования к точности решения задачи.
Обучение нейронной сети с применением одного из следующих методов градиентной
оптимизации (градиент вычисляется по принципу двойственного функционирования):
Градиентный спуск.
Модифицированный ParTan-метод.
Метод сопряженных градиентов.
Квазиньютоновский BFGS-метод.
Тестирование нейронной сети, получение статистической информации о точности решения задачи.
Вычисление и отображение значимости входных сигналов сети, сохранение значений показателей значимости в файле на диске.
Внесение случайных возмущений в веса синапсов сети.
Упрощение (контрастирование) нейронной сети:
Сокращение числа входных сигналов сети.
Сокращение числа нейронов сети.
Равномерное прореживание структуры синапсов сети.
Сокращение числа синапсов сети.
Сокращение числа неоднородных входов (порогов) нейронов сети.
Бинаризация весов синапсов сети (приведение весов синапсов и пороговых входов к конечному набору выделенных значений). Возможен выбор из 4-х наборов выделенных значений.
Генерация вербального описания нейронной сети. Вербальное описание может редактироваться и сохраняться в файле на диске.
Кто хочет может завеверсить чтобы получить MLP за 50к, ну или ув. VGT сам предоставит код.
[
Ответ
][
Цитата
]
Ꜿгг
Сообщений: 13243
На: Остались ли тут специалисты, которые разбираются в ИИ
Добавлено: 28 сен 25 13:14
Цитата:
Автор: гость
чтобы получить MLP за 50к, ну или ув. VGT сам предоставит код.
Витя, залогинься! Ну никому в 2025 уже не нужен MLP ни за 50К, ни за 1К))))
Ты устарел навсегда, мой друг, ищи подработку как в последние 10 лет))
[
Ответ
][
Цитата
]
Стр.13 (13)
:
1
...
9
10
11
12
[13]
<<
< Пред.
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net