Lankide:Jon Ander González/Proba orria

Wikipedia, Entziklopedia askea


Entropia (informazio-teoria)[aldatu | aldatu iturburu kodea]

Informazio-teoriaren alorrean entropiak, informazio-entropia eta Shannon-en entropia (Claude E. Shannon-en omenez) izenez ere ezagutua, informazio iturri baten ziurgabetasuna neurtzen du.

Entropia kontzeptua termodinamika, mekanika estatistiko eta informazio-teorian erabiltzen da. Kasu guztietan entropia «desordena-neurri» edo «konbinazio jakin batzuen berezitasun» bezala ulertzen da. Ziurgabetasun-neurri edo edozein prozesutan ziurgabetasun hori mugatu, murriztu edo ezabatu beharrezko informazio-neurri bezala ulertu daiteke. Kontua da informazio eta entropia kontzeptuek oso harreman estua dutela,  hau antzemateko mekanika estatistiko eta informazio-teoriaren arloetan garapen urte asko behar izan zituzten arren.

Sarrera[aldatu | aldatu iturburu kodea]

Informazio-teoriaren oinarrizko ideia zera da: gai baten inguruan gero eta gehiago jakin, orduan eta informazio berri gutxiago lortuko da. Gertaera bat emateko probabilitatea handia bada, gertatzen denean ez da harrigarria eta, beraz, informazio berri gutxi ematen du. Gertatzeko probabilitatea eskasa bada, ordea, gertakizuna jazo izana nabarmenki adierazgarriagoa da. Hortaz, informazio kantitatea gertaeraren probabilitatearen aurkakoa (1/p) adierazten duen funtzio gorakor bat da. Gertaera bat baino gehiago egoteko aukera badago, entropiak gertaeretako bat benetan ematekotan lortzea espero den batezbesteko informazio kantitatea neurtzen du. Dado bat jaurtitzeak txanpon bat jaurtitzeak baino entropia handiagoa duela esan nahi du honek, dado jaurtiketa bakoitzean lortzen den emaitzak txanpona jaurtitzearen emaitzek baino probabilitate txikiago baitu.

Beraz, entropia egoera baten ziurgabetasun-neurria edo batezbesteko informazio kantitatea da. Kontzeptu hauek ulertzeko adibide bezala bozketa politiko bat proposatzen da. Normalean bozketa hauek lortuko den emaitza aldez aurretik ezagutzen ez delako egiten dira eta, hortaz, emaitzek informazio berria emango dute. Beste era batera esanda: bozketaren entropia, a priori, handia da. Denbora gutxi pasata bozketa berdina errepikatuko balitz, lehenengo bozketaren emaitza dagoeneko ezaguna denez, bigarrenean lortuko dena iragarri ahalko litzateke eta emaitza berriek ez lukete informazio gehigarri askorik emango; kasu honetan, bigarren bozketaren entropia, a priori, txikia da (aurrekoarekin alderatuz). Beste adibide bat txanponaren jaurtiketan oinarritutakoa da. Aurpegia eta gurutzea lortzeko probabilitateak berdinak direla suposatuz, txanpona jaurtitzearen entropiak izan dezakeen balio maximoa du. Aldez aurretik jaurtiketaren emaitza zein izango den iragartzeko modurik ez dagoelako gertatzen da hau. Iragarpen bat eman beharko balitz, aurpegia aterako dela esan zitekeen, eta asmatzeko probabilitatea 1/2 izango litzateke. Horrelako txanpon jaurtiketa batean entropiaren balioa 1 da, gertatzeko probabilitate berdina daukaten bi egoera daudelako.  Txanponaren bi aldeak aurpegiak izango balira, ordea, entropiaren balioa 0 izango litzateke, errorerik gabe iragarri ahalko litzatekeelako emaitza beti aurpegia izango dela. Analogikoki, gertaera bitar ekiprobable batek hurrengo Shannon-en entropia du: . Hiru aukera ekiprobable egongo balira, Shannon-en entropia izango litzateke.

Definizio formala[aldatu | aldatu iturburu kodea]

Suposatu zorizko aldagai baten hasierako indeterminazio maila dela ( egoera posible daude). Gainera, probabilitate bereko egoera guztiak suposatuko ditugu. Orduan, suposatutako konbinazio bat gertatzeko probabilitatea izango da. Beraz, adierazpena horrela idatz dezakegu:

egoera bakoitzak probabilitatea badu, entropia informazio-kantitateen batuketa haztatua erabiliz kalkulatuko da:[1]

Beraz, X mezu baten entropia, H(X) bezala adierazia, mezuaren egoera desberdinei dagokien informazio kantitatearen batezbesteko balioa haztatua da.

zorizko aldagai baten ziurgabetasun mailaren neurri bat eta informazio kantitatea adierazten ditu.

Adibidea[aldatu | aldatu iturburu kodea]

Adibide bezala txanpon baten jaurtiketa hartuko dugu. Txanpona jaurtitzean aurpegia ala gurutzea lortuko dugunaren probabilitateak ezagunak dira, baina txanponak ez du zertan txanpon zintzoa izan. Hau Bernouilli prozesu bat bezala irudika dezakegu.

Jaurtiketaren emaitzaren entropia maximizatuko da txanpon zintzoa bada, hau da, probabilitate bera badago aurpegia edo gurutzea lortzeko (P = 0,5). Egoera hau ziurgabetasun maximoko egoera da, hurrengo jaurtiketaren emaitza aurreikustea ia ezinezkoa da eta.

Bestetik, hartu dezagun zintzoa ez den txanpona, izan ere, aurpegia lortzeko probabilitatea p da eta gurutzea lortzekoa, ordez, q, non p≠q. Egoera honetan ziurgabetasuna txikiagoa da. Jaurtitzen den bakoitzean, txanponaren alde bat lortzearen probabilitatea bestea lortzearena baino handiagoa izango da. Ziurgabetasuna murriztean, entropia ere murrizten da. Adibidez, p=0,7 denean:

Elkarrekiko informazioa[aldatu | aldatu iturburu kodea]

Entropia elkarrekiko informazioaren kasu berezi bat bezala uler daiteke. zorizko bi balioen elkarrekiko informazioa, I(X, Y) bezala adierazia, bi aldagaien elkarrekiko dependentzia neurtzen duen kantitatea da. Zorizko aldagai bat ezagutzean, demagun Y dela[2], X aldagaiaren ziurgabetasun maila (entropia) zenbat murrizten den neurtzen du informazio kantitateak. Beraz, honako hau ondoriozta dezakegu: X eta Y berdinak badira, orduan I(X; X) = H(X).

Propietateak[aldatu | aldatu iturburu kodea]

Entropiak hurrengo propietateak dauzka:

  1. Ezin da negatiboa izan. probabilitate bat izanda, beteko da. Hortaz, eta ondorioz betetzen dela ziurta daiteke.
  2. . Hau da, H entropiak goi bornea dauka (maximoa denean) eta ez du informazio-galera suposatzen.
  3. Izan bedi {A1, …, An} emaitza posibleak eta p1, …, pn probabilitate erlatiboak dituen prozesu bat. funtzioa maximoa da hurrengo egoera ematen bada: . Emaitza intuitiboa da mezuaren ziurgabetasun maximoa daukagulako aldagaiaren balio posibleak ekiprobableak direnean.
  4. Izan bedi {A1, …, An} emaitza posibleak eta p1, …, pn probabilitate erlatiboak dituen prozesu bat. funtzioak 0 balioa du bada i-ren edozein baliorako klase jakin baterako izan ezik, non . Modu intuitiboan pentsa daiteke egoera batek edo gehiagok probabilitate altua dutenean entropia nabarmenki jaisten dela, jasoko den mezuari buruzko ziurgabetasun txikiagoa existitzen delako.

Kodetzaile optimoa[aldatu | aldatu iturburu kodea]

Kodetzaile optimo bat mezu bat kodetzeko bit kopuru minimoa erabiltzen duena da.  Kodetzaile optimo batek kode laburrak erabiliko ditu maiztasunez agertzen diren mezuak kodetzeko eta gutxitan agertzen diren mezuen kasuan kode luzeagoez baliatuko da. Modu honetan memoria gunearen errendimendua optimizatzen da eta sistema eraginkorra da mezua adierazteko behar den bit kopuruari dagokionez.

Adibidez, Morse kodea kodetzaile optimo bat ez izan arren, printzipio honetaz aprobetxatzen da, ingelesez maiztasun handiagoarekin agertzen diren hizkiei kode laburragoak esleituz.

Beste eredu bat Huffmanen algoritmoa izango litzateke[3]. Algoritmo honek informazioa trinkotzen du kodetzaile optimoan oinarrituz. Lehenik eta behin, informazioa zeharkatzen du karaktereen maiztasuna aurkituz. Maiztasuna aurkiturik, kodetzaile optimoa bilatzen du zuhaitz bitarren bidez. Trinkotze teknika batzuek ez dute sinbolo bakaneko probabilitateak erabiltzen mezua kodetzeko, baizik eta sinbolo sekuentzien probabilitate bateratua; ulermen maila altuagoa lortuz.

Kodetzaile optimo bat eratu dezakegu X zorizko aldagai baten entropian oinarrituz. Entropiaren bidez kodetzaile optimo batekin mezu bat kodetzeko beharrezko biten batezbestekoa lortu dezakegu, base bitarreko logaritmoa erabiltzen badugu. Beraz, mezu bat sinboloak banaka hartuz informazio galerarik gabe konprimitu daitekeen muga maximoa lortu dezakegu horrela (Shannon-ek analitikoki frogatua). Ulermen muga (bitetan), entropia bider mezuaren luzera izango da.

Beraz, zorizko aldagai diskretu baten edo sinbolo espezifiko batek ematen duen  informazioa (bitetan definiturik), hurrengo formula bezala definitzen da:

Adibidea[aldatu | aldatu iturburu kodea]

Demagun mezu batek hiru egora izan ahal dituela. M1 egoeraren probabilitatea %50-ekoa da, M2 egoeraren probabilitatea %25-ekoa da eta M3 egoerarena %25-ekoa.

M1-erako lortuko dugu.

M2-erako lortuko dugu.

M3-erako lortuko dugu.

Beraz kodetzaile optimoak bit bat erabiliko du M1 transmititzeko, eta aldiz bi bit behar izango ditugu M2 eta M3 egoeretarako. M1 = 0, M2 = 10 eta M3 = 11 erabili dezakegu mezua kodetzeko, adibidez. Hitzarmen honekin, M1M2M1M1M3M1M2M3  “010001101011” bezala kodetuko genuke, 12 bit erabiliz. Entropiaren balioa honakoa izango litzateke:

Beraz, ondoriozta dezakegu, kodetzaile optimoak 1.5 bit behar izango dituela X-ren edozein baliorako.

Baldintzapeko entropia[aldatu | aldatu iturburu kodea]

Hartu ditzagun bi aldagai, X eta Y, haien artean independenteak ez direnak, hau da, bat ezagutzeak (Y adibidez) besteari buruzko informazioa (X adibidez) ematen digu. Informazioaren entropiari begira, Y aldagaiaren informazioak X aldagaiaren ziurgabetasuna txikituko duela esan dezakegu. Beraz, X aldagaiaren entropia Y aldagaiaren menpe egongo dela esan dezakegu:

Bayes-en teoremaren arabera: p(x,y)=p(y)p(x|y) badakigunez, non p(x|y) Y zein den jakinda X egoera bat gertatzearen probabilitatea den, honako hau adieraz dezakegu:

Oharrak eta erreferentziak[aldatu | aldatu iturburu kodea]

Erreferentziak[aldatu | aldatu iturburu kodea]

  1. Cuevas Agustín, Gonzalo, "Teoría de la información, codificación y lenguajes", Ed. SEPA (Sociedad para Estudios Pedagógicos Argentinos), Serie Informática 1986
  2. Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012
  3. Huffman, D., "A method for the Construction of Minimum-Redundancy Codes", Proc. IRE, Vol 40 1952