Теория вероятности и математической статистике
Рефераты >> Статистика >> Теория вероятности и математической статистике

Композиционное пространство имеет вид:

j1=1, ., m1; j2=1, ., m2; jn=1, ., mn;

Общая структура независимых событий в композиционном пространстве имеет вид:

1-е событие -

это событие, которое происходит в 1-м вероятностном пространстве

2-е событие -

это событие, которое происходит во 2-м вероятностном пространстве

n - событие -

это событие, которое происходит в n-м вероятностном пространстве

Рассмотрим два вероятностных пространства.

I

II

Очевидно, что неопределенность испытания до испытания в первом вероятностном пространстве выше, чем во втором. Действительно, до испытания в I нельзя ни одному из событий отдать предпочтения, а во II событие E3 происходит чаще.

Энтропия - мера неопределенности исхода испытания (до испытания).

Первым, кто функционально задал выражение для энтропии был Шеннон.

,

Для вероятностного пространства:

Энтропия задается выражением: . Если P1=0, то Pi×logPi­=0.

Самим показать, что:

1. Если вероятностное пространство не имеет определенности, т.е. какое-то из Pi=1, а остальные равны 0, то энтропия равна нулю.

2. Если элементарный исход равновероятен, т.е. , то энтропия принимает максимальное значение.

0£Pi£1,

1)

,

т.о. вероятности p1, p2, ., ps обращаются в ноль, например pi, которая равна 1. Но log1=0. Остальные числа также обращаются в 0, т.к. .

2) Докажем, что энтропия системы с конечным числом состояний достигае максимума, когда все состояния равновероятны. Для этого рассмотрим энтропию системы как функцию вероятностей p1, p2, ., ps и найдем условный экстремум этой функции, при условии, что .

Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции: .

Дифференцируя по p1, p2, ., ps и приравнивая производные нулю получим систему:

i=1, ., s

Откуда видно, что экстремум достигается при равных между собой p1.

Т.к. , то p1= p2=, ., = ps= 1/s.

Еденицей измерения энтропии является энтропия вероятностного пространства вида:

, которая называется 1 бит.

Неопределенность исхода испытания до испытания автоматически определяет информативность исхода испытания после испытания. Поэтому в битах также измеряется информативность исхода.

Рассмотрим два вероятностных пространства:

Проводим композицию двух испытаний. Композиционное пространство имеет вид:

i=1, ., s1 j=1, ., s2

С точки зрения качественного анализа максимальная энтропия композиционного вероятностного пространства достигается тогда, когда испытания независимы. Найдем энтропию композиционного пространства для случая независимых испытаний.

Биномиальное распределение.

n испытаний называются системой испытаний Бернулли, если испытания независимы, в каждом из них происходит событие , либо с вероятностью наступления P(A) = p;

Найдем вероятность того, что в результате проведенных n испытаний событие А произошло m раз:

Рассмотрим композицию n независимых испытаний и построим композиционное пространство элементарных событий.

Общий вид элемента этого пространства следующий:

где

При этом вероятность наступления такого события равна:

(умножение при независимых событиях)

Найдем вероятность наступления любого элементарного события из композиционного пространства:

Рассмотрим в композиционном вероятностном пространстве событие: в n испытаниях событие A произошло m раз.

Событие A состоит из - общее кол-во элементарных событий, в которое входит событие А. А произошло m раз, - n-m раз. Вероятность каждого из этих элементарных событий одинакова и равна:

Следовательно, на основании III аксиомы теории вероятности результат равняется:

(сложение вероятностей)

Случайная величина

Пусть имеется вероятностное пространство вида .


Страница: