Baldintzazko entropia

testwikitik
Nabigaziora joan Bilaketara joan

Informazioaren teorian baldintzazko entropiak zera neurtzen du: X zorizko aldagaiaren balioa ezaguna izanik, Y zorizko aldagaia deskribatzeko behar den informazio kantitatea. Entropia kontzeptuaren hedapen bat da.

Definizioa

X zorizko aldagai diskretuak x balioa hartzearen baldintzapean Y zorizko aldagai diskretuaren entropia H(Y|X=x) notazioaz adierazten da.

Y aldagaiaren probabilitate-funtzioa pY(y) izanik, haren entropia (ez baldintzazkoa) horrela definitzen da: H(Y):=𝔼[I(Y)], hau da, informazio-kantitatearen itxaropen matematikoa. Kalkuluak eginez, zera lortzen da:

H(Y)=i=1nPr(Y=yi)I(yi)=i=1npY(yi)log2pY(yi),

I(yi) izanik Y aldagaiak yi balioa hartzeak ematen duen informazio kantitatea.

Antzeko moduan, baina baldintzazko itxaropen matematikoa erabiliz, defini daiteke X zorizko aldagai diskretuak x balioa hartzearen baldintzapean Y zorizko aldagai diskretuak duen entropia:

H(Y|X=x)=𝔼[I(Y)|X=x]=i=1nPr(Y=yi|X=x)log2Pr(Y=yi|X=x).

X aldagaiaren x balio posible guztietarako H(Y|X=x) balioen batez besteko haztatua kalkulatuz lortzen da H(Y|X) baldintzazko entropia.

H(Y|X) x𝒳p(x)H(Y|X=x)=x𝒳p(x)y𝒴p(y|x)logp(y|x)=x𝒳y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(x,y)p(x).

Konbenioa: 0log0 eta 0logc/0 espresioen emaitza zero dela onartzen da, c>0 izanik.

Propietateak

  • X eta Y aldagaiak elkarren mendekoak badira, H(Y|X)=0 betetzen da, hau da, baldintzazko entropia zero izango da, X aldagaiaren balioa ezagutzearen ondorioz Y aldagaia erabat zehaztuta geratzen bada.
  • Aurreko propietatetik ondoriozta daiteke H(X|X)=0 betetzen dela.

Ikus, gainera

Kanpo estekak

Txantiloi:Autoritate kontrola