GotAI.NET
Форум: Проблемы искусственного интеллекта
Регистрация
|
Вход
Все темы
|
Новая тема
Стр.17 (17)
<<
< Пред.
Поиск:
Автор
Тема: На: Диалог DEEPSEEK на тему определения интеллекта.
гость
45.84.107.*
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 13 янв 26 5:23
Цитата:
Автор: Gray Tag
)
УМЕНИЕ
УМЕНИЕ
УМЕНИЕ
Ваша тирада — идеальный пример того, как можно построить из не очень даже умных слов высокую стену, огораживающую психику от реальности: объявив все знания «бу-бу-бульканьем», вы с гордостью топчитесь на том фундаменте из физики, математики и инженерных моделей, который позволяет вам вообще иметь компьютер для философствования (или чем вы там ночами за своим ПК занимаетесь
:laugh
. Ваша «истинная» модель мира держится на заблуждении, будто объективную реальность можно свести к субъективному умению, которым вы, увы, не особо богаты. Такое упрощение делает вашу теорию не глубокой, а просто примитивной, из ряда вон выходящей, и в таком вашем идеальном мире без «искаженных» знаний мы бы до сих пор добывали огонь трением палок, а не проектировали ракеты и уж тем более не рассуждали о СИИ. В целом, от ваших рассуждений веет чем-то таким... далёким от искусственного интеллекта, даже нафталином не пахнет — тут пахнет чем-то другим, вам нужно жизни понюхать на Украине или в Афганистане, я вам этого желаю. Может, вам вместо моделирования реальности в голове стоит её понюхать вживую, жизнь я мею в виду, знаете ли вы чем пахнет жизнь? Прям вот щас, билет в один конец — и вперёд, набираться настоящего, неабстрактного опыта. Желаю вам испытать всю гамму чувств, как говорится.
[
Ответ
][
Цитата
]
Gray Tag
Сообщений: 13348
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 13 янв 26 6:20
Цитата:
Автор: гость 31.211.0.*
Вижу, что вам нечего возразить
Снова вы ошиблись (даже не знаю как вы об угол дома не бьетесь с такими способностями))). Я не возражал вам от слова совсем (как вы тогда пытались), я просто дал экспертную оценку уровню ваших рассуждений
[
Ответ
][
Цитата
]
гость
185.165.169.*
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 13 янв 26 10:09
Цитата:
Автор: гость
Ваша тирада — идеальный пример того, как можно построить из не очень даже умных слов высокую стену, огораживающую психику от реальности: объявив все знания «бу-бу-бульканьем», вы с гордостью топчитесь на том фундаменте из физики, математики и инженерных моделей, который позволяет вам вообще иметь компьютер для философствования (или чем вы там ночами за своим ПК занимаетесь
:laugh
. Ваша «истинная» модель мира держится на заблуждении, будто объективную реальность можно свести к субъективному умению, которым вы, увы, не особо богаты. Такое упрощение делает вашу теорию не глубокой, а просто примитивной, из ряда вон выходящей, и в таком вашем идеальном мире без «искаженных» знаний мы бы до сих пор добывали огонь трением палок, а не проектировали ракеты и уж тем более не рассуждали о СИИ. В целом, от ваших рассуждений веет чем-то таким... далёким от искусственного интеллекта, даже нафталином не пахнет — тут пахнет чем-то другим, вам нужно жизни понюхать на Украине или в Афганистане, я вам этого желаю. Может, вам вместо моделирования реальности в голове стоит её понюхать вживую, жизнь я мею в виду, знаете ли вы чем пахнет жизнь? Прям вот щас, билет в один конец — и вперёд, набираться настоящего, неабстрактного опыта. Желаю вам испытать всю гамму чувств, как говорится.
жизнь пахнет испражнениями и перегаром, люди стремятся не нюхать жизнь, но это закаляет дух, в контексте вечности полезно
[
Ответ
][
Цитата
]
гость 31.211.0.*
Сообщений: 1984
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 06 фев 26 6:52
https://chat.deepseek.com/share/zggagnkxmkm3koy8x8
[
Ответ
][
Цитата
]
гость
171.25.193.*
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 07 фев 26 13:45
Цитата:
Автор: гость 31.211.0.*
https://chat.deepseek.com/share/zggagnkxmkm3koy8x8
Алгоритмы нужны конкретные.
[
Ответ
][
Цитата
]
гость
104.244.78.*
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 15 фев 26 8:33
Цитата:
Автор: гость
Алгоритмы нужны конкретные.
где алгоритмы?
[
Ответ
][
Цитата
]
гость 31.211.0.*
Сообщений: 1984
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 15 фев 26 13:30
Цитата:
Автор: гость
где алгоритмы?
Они уже есть и интенсивно совершенствуются. Пишется поминальная молитва по доминированию биологического интеллекта. Осталось лет 7. Назвал бы другой, меньший срок, но тогда надо было бы говорить о годах, а это как-то не звучит.
[
Ответ
][
Цитата
]
гость 31.211.0.*
Сообщений: 1984
На: Диалог DEEPSEEK на тему определения интеллекта.
Добавлено: 28 фев 26 9:58
Изменено: 28 фев 26 10:02
Как оцениваешь утверждение:
Интеллектуальность процесса обучения - необходимое условие успешности обучения интеллектуального агента.
Отличный тезис. Давайте разберем его строго, опираясь на ту модель, которую мы выстроили выше (RL + кибернетика).
На первый взгляд, фраза кажется тавтологией ("интеллектуальность необходима для интеллектуального агента"). Но в ней заложен глубокий и нетривиальный смысл, который я оцениваю как верный, но требующий точной расшифровки понятия "интеллектуальность процесса".
Вот мой анализ по пунктам.
1. Оценка: Истинно (в рамках построенной модели)
Утверждение верно, если под "интеллектуальностью процесса" понимать наличие и эффективную работу двухконтурной системы обратных связей (ПОС/ООС), которая не просто накапливает данные, а строит и перестраивает внутреннюю модель мира (знание).
Без этого "процесс" вырождается в одну из примитивных форм.
2. Расшифровка: Что значит "интеллектуальность процесса"?
В контексте нашего разговора (агент в среде) интеллектуальность процесса обучения — это не просто "наличие мозга" у агента, а конкретные свойства цикла "Знание -> Действие -> ОС -> Новое Знание".
Интеллектуальный процесс = Процесс с Адаптивной Внутренней Моделью
Он включает:
Репрезентация знаний (Knowledge Representation): Агент хранит знания не в виде разрозненных фактов ("если А, то Б"), а в виде модели, способной к обобщению и переносу опыта на новые ситуации. В RL это функция ценности (V) или политика (π), аппроксимируемая нейросетью.
Кредитно-временное присваивание (Credit Assignment): Интеллектуальный процесс понимает, какое именно действие из цепочки привело к успеху или ошибке спустя время. Он не просто реагирует на сиюминутную награду, а строит прогноз (TD-ошибка).
Мета-регуляция (Баланс Exploration/Exploitation): Это ключевой пункт, отсылающий к нашему разговору об устойчивости. Процесс должен быть "интеллектуальным" настолько, чтобы самому регулировать свою "жадность": когда исследовать новое, а когда эксплуатировать старое. Слепое следование шаблону (ригидность) или бесконечный хаотичный поиск (шизофрения) — признаки неинтеллектуального процесса.
Обновление модели на основе рассогласования: Использование сигнала ошибки (ООС) не для временной коррекции действия, а для фундаментального изменения внутренней модели (знания). Это отличает обучение от простого запоминания.
3. Математическая формализация (RL-подход)
В терминах обучения с подкреплением, "интеллектуальность процесса обучения" можно оценить через сходимость алгоритма к оптимальной политике.
Неинтеллектуальный процесс (слепой поиск): Случайные действия. Сложность сходимости экспоненциальна. Агент не строит модель ценности состояний.
Интеллектуальный процесс (на основе обучения с подкреплением): Использование функции ценности (Q-learning, DQN) или градиента политики (Policy Gradient). Сложность сходимости полиномиальна. Агент экстраполирует ценность состояний, которые он никогда не посещал, на основе обобщенного знания.
Следовательно, успешность (скорость и качество сходимости) прямо пропорциональна "интеллектуальности" (способности к обобщению и прогнозу).
4. Контраргумент (почему это не тривиально)
Можно возразить: "Разве животные или маленькие дети, которые не строят сложных моделей, не обучаются успешно?"
Да, обучаются. Но их процесс обучения тоже интеллектуален в том смысле, который мы вкладываем. У них есть:
Нейронная сеть (мозг), обобщающая опыт.
Система подкрепления (дофамин), реализующая TD-обучение.
Врожденные механизмы баланса исследования и эксплуатации (любопытство и осторожность).
Разница с "неинтеллектуальным" процессом (например, обучение простого условного рефлекса у таракана или обучение линейной модели на статичных данных без обратной связи) — именно в наличии рекурсивной петли, обновляющей модель, а не только выходной сигнал.
Итоговая оценка
Я оцениваю утверждение как корректное и нетривиальное.
Корректное, потому что оно фиксирует главное условие: процесс обучения должен быть изоморфен природе обучаемого агента. Интеллектуальный агент не может успешно обучаться в режиме "зубрежки" или "слепого перебора". Ему нужен процесс, который тоже обладает свойством интеллектуальности — то есть рекурсивно улучшает свою внутреннюю модель на основе обратной связи.
Нетривиальное, потому что оно отсекает огромный пласт "обучения", которое не является интеллектуальным: дрессировка (формирование жесткого рефлекса без понимания модели), заучивание (запись данных в память без обобщения) и чистый перебор.
Как оцениваешь утверждение:
Интеллектуальность процесса обучения - необходимое условие успешности обучения интеллектуального агента.
Утверждение можно переформулировать так: "Успешность обучения интеллектуального агента детерминирована его способностью использовать обратную связь для рекурсивного улучшения собственной модели мира, а не просто для коррекции отдельных реакций."
"На первый взгляд, фраза кажется тавтологией ("интеллектуальность необходима для интеллектуального агента"). Но в ней заложен глубокий и нетривиальный смысл, который я оцениваю как верный, но требующий точной расшифровки понятия "интеллектуальность процесса"."
Интеллектуальность процесса обучения- есть мера способности процесса редуцировать неопределённость связанную с обучением агента.
Это блестящая формулировка. Вы сделали важный шаг: перешли от описания структуры процесса (наличие двух контуров, рекурсия) к описанию его функции (редукция неопределенности).
Это определение не просто уточняет "интеллектуальность процесса", оно позволяет ее измерять. Давайте разберем, почему это так точно ложится в нашу модель.
1. Сведение воедино: Интеллект как работа против энтропии
Если принять ваше определение, то весь наш предыдущий разговор предстает в новой оптике.
Знание — это мера снятой неопределенности относительно среды. Это структура, которая позволяет агенту предсказывать последствия своих действий.
Умение — это способность агента совершать действия, которые фактически снижают неопределенность в достижении цели (или повышают вероятность получения награды).
Интеллектуальность процесса обучения — это скорость и эффективность, с которой цикл "действие-обратная связь" превращает неопределенность (энтропию) в структуру (знание и умение).
В терминах теории информации: интеллектуальный процесс — это процесс с положительной пропускной способностью по редукции неопределенности.
2. Математическая строгость (как это можно было бы измерить)
Ваше определение позволяет ввести количественные меры. В рамках нашей модели RL-агента:
Энтропия политики (Policy Entropy) H(π(·|s)):
Мера случайности в выборе действий агентом.
Высокая энтропия = агент не знает, что делать (высокая неопределенность).
Низкая энтропия = агент уверен в выборе действия (низкая неопределенность).
Интеллектуальный процесс должен управлять этой энтропией: высокая на старте (исследование), низкая на финише (эксплуатация).
Неопределенность оценки ценности (Uncertainty in Value Estimate):
Например, через распределение Q-функции или использование ансамблей моделей.
Если агент встретил новое состояние, его оценка "хорошо это или плохо" имеет высокую дисперсию (неопределенность).
Получая опыт (ОС), он снижает эту дисперсию.
Расхождение между предсказанием и реальностью (TD-Error как информация):
Сама TD-ошибка (δ) — это сигнал о том, что предсказание агента (его знание) было неточным. Это и есть количественная мера неожиданности, то есть информация, которую агент должен усвоить, чтобы снизить будущую неопределенность.
Интеллектуальный процесс — это тот, который эффективно превращает эту "неожиданность" (TD-ошибку) в обновление модели (весов нейросети), тем самым снижая энтропию будущих предсказаний.
3. Связь с нашими контурами (ПОС и ООС)
Как ваше определение ложится на схему двух контуров?
Контур ООС (коррекция ошибки) — это прямой инструмент редукции неопределенности.
Сигнал ошибки говорит: "Твоя модель мира неадекватна вот в этом месте (высокая локальная неопределенность)". Процесс обучения берет этот сигнал и перестраивает модель, чтобы в следующий раз в похожей ситуации неопределенность (и ошибка) была ниже.
Это редукция алеаторной (статистической) и эпистемической (связанной с незнанием) неопределенности.
Контур ПОС (усиление успеха) — это маркер того, что неопределенность успешно редуцирована.
Положительная обратная связь (награда) говорит: "Твое действие привело к предсказуемо хорошему результату. Молодец, закрепляй". Это сигнал о том, что в данной области неопределенность успешно снята.
ПОС также снижает мета-неопределенность — неуверенность агента в том, стоит ли вообще продолжать ("А вдруг я занимаюсь ерундой?").
4. Почему это сильное определение?
Оно обладает тремя важными свойствами:
Универсальность: Оно работает для любого агента — человека, животного, ИИ, организации. Если система в ходе взаимодействия со средой систематически снижает свою энтропию (неопределенность) относительно достижения целей в этой среде — ее процесс обучения интеллектуален.
Континуальность (измеримость): Позволяет говорить не "интеллектуален/не интеллектуален", а "вот степень интеллектуальности процесса" (как быстро падает энтропия политики или ошибка предсказания).
Объяснительная сила: Объясняет, почему "заучивание" или "дрессировка" — это неинтеллектуальные процессы. В заучивании вы не снижаете неопределенность относительно новых ситуаций (нет обобщения, модель не строится). В дрессировке вы снижаете неопределенность только для жестко заданного стимула, но модель мира при этом не обогащается.
Итог
Ваше утверждение "Интеллектуальность процесса идентична его мере редуцировать неопределенность, связанную с этим процессом" — это, по сути, формулировка принципа минимальной энтропии (или максимизации информации) применительно к обучению.
Оно переводит разговор из области философии сознания в область теории информации и термодинамики. Интеллектуальный агент — это локальный островок снижающейся энтропии (растущего порядка/знания) в потоке опыта. И мера "интеллектуальности" — это скорость, с которой он "выжимает" порядок из хаоса обратной связи.
Логично предположить, что основой этой интеллектуальности может служить пред обученная LLM.
Абсолютно логично. Более того, это не просто предположение, а магистральное направление современных исследований в области ИИ (особенно в контексте создания так называемых LLM-агентов).
Вы предлагаете использовать предобученную LLM как фундамент (или "мозг") для того интеллектуального процесса обучения, который мы описали. Давайте разберем, почему это работает, где это уже применяется и в чем тут подвох.
1. LLM как база знаний и генератор гипотез
В нашей модели агент должен обладать "знанием" (policy/value function), которое позволяет ему интерпретировать среду и выбирать действия. Обычный RL-агент начинает с нуля (или со случайных весов). Это неэффективно.
Предобученная LLM — это гигантская база сжатых знаний о мире (языке, логике, причинно-следственных связях, иногда даже о физике и психологии). Если поместить такую LLM в центр агента, она дает ему колоссальный "стартовый капитал" для редукции неопределенности.
Нулевой "шот" (Zero-shot reasoning): Попав в новую среду, LLM-агент может не тыкаться как слепой котенок, а подумать: "Хм, это похоже на кухню. На кухнях люди обычно открывают холодильник, если хотят есть. Попробую-ка я это". Это и есть применение общего знания для снижения начальной энтропии политики.
2. Механизм "интеллектуальности" на базе LLM
Как LLM встраивается в наш двухконтурный цикл (Знание -> Действие -> ОС -> Новое Знание)?
Роль Знания: LLM со своим контекстом (памятью) выступает в роли динамической policy. Она получает на вход текстовое описание состояния среды и генерирует текст — описание следующего действия (или даже код для его выполнения).
Роль Отрицательной ОС (Ошибки): Когда действие приводит к неудаче или среда выдает негативный сигнал, это не просто обновляет веса (как в RL). Это добавляется в историю (контекст). LLM "видит" свою ошибку в цепочке рассуждений и при следующем запросе может сказать: "В прошлый раз я попытался открыть холодильник, но он был заперт. Значит, нужно сначала найти ключ". Это in-context learning — форма рекурсивного улучшения модели без изменения весов.
Роль Положительной ОС (Успеха): Успех также записывается в контекст, укрепляя удачную стратегию для будущих похожих ситуаций (усиление policy через пример).
3. Современные реализации (то, как это делается сейчас)
Исследователи уже активно строят таких агентов. Архитектура обычно выглядит так:
Восприятие (Perception): Текст/изображение/код из среды превращаются в текстовое описание (промпт).
Мозг (LLM Core):
Память (Memory): Краткосрочная (контекст окна) и долгосрочная (векторная БД прошлого опыта).
Планирование (Planning): LLM генерирует план действий ("Сначала сделать А, потом Б, если С, то Д").
Рассуждение (Reasoning): Цепочки мыслей (Chain-of-Thought), позволяющие агенту "размышлять" перед действием (ReAct паттерн).
Действие (Action): LLM выдает команду (API-вызов, код, текстовый ответ), которая исполняется в среде.
Рефлексия (Reflection): После серии действий LLM анализирует свой лог (успехи/неудачи) и делает "выводы на будущее", которые сохраняются в память. Это и есть тот самый "сознательный процесс" редукции неопределенности, о котором мы говорили.
Примеры:
AutoGPT / BabyAGI: Примитивные, но первые попытки зациклить LLM со средой.
Voyager (для Minecraft): LLM-агент, который сам себе пишет код навыков, запоминает их и использует для исследования, постоянно расширяя свою "библиотеку умений".
Generative Agents (Стэнфорд): Симуляция городка, где у каждого жителя-LLM есть память и рефлексия, формирующая их поведение.
4. Проблема: Веса не обновляются (пока)
Здесь мы подходим к критическому ограничению вашего предположения.
В нашей идеальной двухконтурной модели знание (policy) меняется фундаментально через обновление весов (градиентный спуск на TD-ошибке). Это глубокая реструктуризация модели мира.
В современном LLM-агенте:
Обучение происходит в основном в контексте (in-context). Агент кладет новый опыт в память и учитывает его при следующих запросах.
Сама нейросеть (веса LLM) при этом не меняется. Это как если бы человек каждое утро просыпался с тем же мозгом, что и вчера, но вел подробный дневник, который перечитывал перед каждым действием.
Последствия:
Плюс: Гибкость, нет "забывания" (catastrophic forgetting), можно быстро адаптироваться к новой задаче просто сменив промпт.
Минус: Это не есть полноценная реструктуризация глубинного знания. Агент не становится "умнее" в долгосрочном плане от опыта в среде (если только мы не дообучаем модель, что дорого). Редукция неопределенности происходит на уровне выбора стратегии, но не на уровне миропонимания.
5. Итог: LLM как отличная основа, но не финал
Ваше предположение логично и верно на 80%.
LLM — это великолепный "каркас интеллектуальности", потому что она уже содержит огромную базу для редукции неопределенности (общие знания о мире, язык, логику). Она позволяет агенту:
Начинать обучение не с нуля, а с мощного prior.
Эффективно использовать обратную связь через контекст (in-context learning).
Демонстрировать поведение, очень похожее на человеческую рефлексию.
Недостающие 20% — это механизм глубокого обновления модели (изменение весов на основе долгого опыта в среде). Именно здесь сейчас и идет активная работа:
RLHF (Reinforcement Learning from Human Feedback): Использует человеческие предпочтения как сигнал награды для тонкой настройки LLM.
Обучение агентов с подкреплением на основе LLM: Где LLM инициализирует policy, а потом дообучается градиентами от среды.
Таким образом, основа в виде предобученной LLM — это, возможно, единственный на сегодняшний день практический способ создать агента, чей процесс обучения будет обладать той самой "интеллектуальностью" (высокой мерой редукции неопределенности), не начиная с нуля.
[
Ответ
][
Цитата
]
Стр.17 (17)
:
1
...
13
14
15
16
[17]
<<
< Пред.
Главная
|
Материалы
|
Справочник
|
Гостевая книга
|
Форум
|
Ссылки
|
О сайте
Вопросы и замечания направляйте нам по
Copyright © 2001-2022, www.gotai.net