|
| |
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:34
Изменено: 07 апр 15 9:37
|
Автор: гость
нет, этот вывод (не вполне понятный) не верен.
из последнего равенства имеем -
Н(Y)-Н(Y/Х)=I=Н(Х/Y)-Н(Х)=-I.. |
|
Чего тут непонятного? Первые две формулы энтропия на выходе линейной системы с коэффициентом передачи Y(f), общепринятые выражения, подстановка их значений в ваше выражение дает ноль.
|
|
|
| |
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:39
|
детерминированная (линейная) связь это частный случай более общей ситуации статистической связи. Н(Y=Lin(X))=Н(Х).
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:39
|
Автор: гость
вывод верен только для узкого частного случая независимых величин. |
|
Интересно. Как выход фильтра может быть независим от его входа?
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:43
|
вы рассматриваете ТОЛЬКО канал без шума, а статистическая связь описывает связь источника и приемника через канал с шумом.
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:45
|
Автор: гость
вы рассматриваете ТОЛЬКО канал без шума, а статистическая связь описывает связь источника и приемника через канал с шумом. |
|
Пургу метём?
|
|
|
| |
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 9:55
Изменено: 07 апр 15 9:57
|
Автор: гость
а посмотреть простейшие базовые формулы теории информации? I=а-в I=c-д -------- I=((а+с)-в-д)/2 |
|
Не способность признавать свои ошибки в очевидных случаях очень опасное качество. Один совет, в исходных формулах, которые суммируются, надо поменять минус на плюс. Н(x,y)=H(x)+Hx(y)=H(y)+Hy(x).
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:03
|
ну и кто пургу метет?? ошибка (даже не ошибка, а элементарное непонимание) у вас. даже странно.. можете же на пальцах промоделировать простую ситуацию с малым числом соcтояний и убедиться в моей правоте.
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:07
|
Автор: гость
ну и кто пургу метет?? ошибка (даже не ошибка, а элементарное непонимание) у вас. даже странно.. можете же на пальцах промоделировать простую ситуацию с малым числом соcтояний и убедиться в моей правоте. |
|
Конечно на пальцах проще всего. Коню понятно , что энтропия двумерного распределения не может быть меньше энтропии по её одному измерению.
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:15
|
коню сначала должно быть ясно, что Н(Х)>=Н(X/Y1)>=Y(Х/Y1,Y2)>=.. откуда следуют помимо прочего интересные обобщения.
|
|
|
| |
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:29
|
слушайте, вы путаете энтропию двумерной величины и взаимную информацию двух величин. Думал что выше у вас описка, а выходит что вы говорите вовсе не о том, о чем следует.
|
|
|
|
На: Противоестественный сильный ИИ.
Добавлено: 07 апр 15 10:33
|
Автор: гость
слушайте, вы путаете энтропию двумерной величины и взаимную информацию двух величин. Думал что выше у вас описка, а выходит что вы говорите вовсе не о том, о чем следует. |
|
Уже даже не смешно.
|
|
|
|