GotAI.NET

Форум: Проблемы искусственного интеллекта

 

Регистрация | Вход

 Все темы | Новая тема Стр.21 (55)<< < Пред. | След. > >>   Поиск:  
 Автор Тема: На: Противоестественный сильный ИИ.
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:28
нет, этот вывод (не вполне понятный) не верен.

из последнего равенства имеем -

Н(Y)-Н(Y/Х)=I=Н(Х/Y)-Н(Х)=-I..
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:34
Изменено: 07 апр 15 9:37
Цитата:
Автор: гость

нет, этот вывод (не вполне понятный) не верен.

из последнего равенства имеем -

Н(Y)-Н(Y/Х)=I=Н(Х/Y)-Н(Х)=-I..


Чего тут непонятного? Первые две формулы энтропия на выходе линейной системы с коэффициентом передачи Y(f), общепринятые выражения, подстановка их значений в ваше выражение дает ноль.
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:35
вывод верен только для узкого частного случая независимых величин.
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:39
детерминированная (линейная) связь это частный случай более общей ситуации статистической связи. Н(Y=Lin(X))=Н(Х).
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:39
Цитата:
Автор: гость

вывод верен только для узкого частного случая независимых величин.


Интересно. Как выход фильтра может быть независим от его входа?
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:43
вы рассматриваете ТОЛЬКО канал без шума, а статистическая связь описывает связь источника и приемника через канал с шумом.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:45
Цитата:
Автор: гость

вы рассматриваете ТОЛЬКО канал без шума, а статистическая связь описывает связь источника и приемника через канал с шумом.


Пургу метём?
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:48
а посмотреть простейшие базовые формулы теории информации?
I=а-в
I=c-д
--------
I=((а+с)-в-д)/2
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:55
Изменено: 07 апр 15 9:57
Цитата:
Автор: гость

а посмотреть простейшие базовые формулы теории информации?
I=а-в
I=c-д
--------
I=((а+с)-в-д)/2

Не способность признавать свои ошибки в очевидных случаях очень опасное качество.
Один совет, в исходных формулах, которые суммируются, надо поменять минус на плюс.
Н(x,y)=H(x)+Hx(y)=H(y)+Hy(x).
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:03
ну и кто пургу метет?? ошибка (даже не ошибка, а элементарное непонимание) у вас. даже странно.. можете же на пальцах промоделировать простую ситуацию с малым числом соcтояний и убедиться в моей правоте.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:07
Цитата:
Автор: гость

ну и кто пургу метет?? ошибка (даже не ошибка, а элементарное непонимание) у вас. даже странно.. можете же на пальцах промоделировать простую ситуацию с малым числом соcтояний и убедиться в моей правоте.


Конечно на пальцах проще всего. Коню понятно , что энтропия двумерного распределения не может быть меньше энтропии по её одному измерению.
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:15
коню сначала должно быть ясно, что Н(Х)>=Н(X/Y1)>=Y(Х/Y1,Y2)>=.. откуда следуют помимо прочего интересные обобщения.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:20
Цитата:
Автор: гость

коню сначала должно быть ясно, что Н(Х)>=Н(X/Y1)>=Y(Х/Y1,Y2)>=.. откуда следуют помимо прочего интересные обобщения.


Блин. Достал уже. Вот прямая ссылка.См стр 36 пункт 4.
http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf
[Ответ][Цитата]
гость
78.25.123.*
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:29
слушайте, вы путаете энтропию двумерной величины и взаимную информацию двух величин. Думал что выше у вас описка, а выходит что вы говорите вовсе не о том, о чем следует.
[Ответ][Цитата]
гость 31.211.0.*
Сообщений: 1849
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:33
Цитата:
Автор: гость

слушайте, вы путаете энтропию двумерной величины и взаимную информацию двух величин. Думал что выше у вас описка, а выходит что вы говорите вовсе не о том, о чем следует.


Уже даже не смешно.
[Ответ][Цитата]
 Стр.21 (55)1  ...  17  18  19  20  [21]  22  23  24  25  ...  55<< < Пред. | След. > >>