Entropia

Wikipedia(e)tik
Hona jo: nabigazioa, Bilatu
Sistema batek lehertzean bere entropia handitzen du izotz kristalak urtzen direnean bezala

Entropia (termodinamikaren ikuspuntutik) sistema batek izan ditzakeen azpiegituren kopurua eta azpiegitura horiek izateko duten probabilitatea azaltzen duen magnitude fisikoa da, ohituraz S hizkiaz adierazia. Oro har entropiak sistema baten ordenaren eta sisteman gertatzen diren eboluzioen kalitatearen berri ematen digu. Entropia fisika eta ingeniaritzaz gain informazio teoria eta matematikan ere azaltzen den kontzeptua dugu, eta arlo horietan guztietan ondorengo ekuazioak neurtzen du entropia:

S = - k\sum_i P_i \ln P_i \!

Non:

  • S~ = entropia.
  • i~ = hizkian zehar egindako gehiketaren elementu bakoitzak sistemaren azpiegitura bat.
  • P_i~ = azpiegitura bakoitzak gertatzeko duen probabilitatea.
  • k~ = unitate sistemara moldatzeko konstante bat dugu SI sisteman bere balioa Boltzmannen konstantearena dugu kSI = 1,38066×10−23.

Egitura ordenatua duten sistemetan azpiegitura gehienen probabilitatea oso baxua da, eta gehiketan eragina duten terminoak gutxi batzuk dira. Horregatik, egitura ordenatua duten sistemek entropia baxua izanen dute, eta egitura hau desegiten den heinean entropia hazi egiten da. Sistema ez ordenatuetan ezin dugu aurrekoa bezalako arrazoibiderik egin, oro har sistema ez ordenatuetan entropia altua bada ere entropia baxuko sistema ez ordenatuak izan badirelako. Sistemen ordenatik desordenarako duten joeran eta ordena honen aldaketak entropian duen eraginean oinarritzen dira termodinamikaren bigarren printzipioaren zenbait adierazpen.

Entropia hitza grekeratik eratorria da (ἐντροπία) eta jatorrizko esanahia transformazio edo eraldatze litzateke.

Commonsen badira fitxategi gehiago, gai hau dutenak: Entropia Aldatu lotura Wikidatan