Էնտրոպիա
From Wikipedia, the free encyclopedia
Էնտրոպիա (հին հունարեն՝ ἐντροπία շրջադարձ, փոխակերպում), բազմաթիվ էլեմենտներից բաղկացած համակարգի անկարգավորվածության չափը բնական գիտություններում։ Մասնավորապես, վիճակագրական ֆիզիկայում որևէ մակրոսկոպիկ վիճակի իրականացման հավանականությունն է, ինֆորմացիայի տեսությունում՝ անորոշության չափը որևէ փորձում, որը կարող է տարբեր ելքեր, հետևաբար, նաև տարբեր տեղեկության քանակ ունենալ, ինֆորմատիկայում՝ տեղեկությունների ոչ լրիվության, անորոշության աստիճանը։
- Անվան այլ կիրառումների համար տե՛ս՝ Էնտրոպիա (այլ կիրառումներ)
Էնտրոպիայի հասկացությունը 1865 թ. առաջին անգամ կիրառել է Ռուդոլֆ Կլաուզիուսը թերմոդինամիկայում՝ էներգիայի ցրման անդարձելիության չափի (իդեալական պրոցեսից իրական պրոցեսի շեղման չափի) որոշման համար։ Էնտրոպիան թերմոդինամիկական վիճակի ֆունկցիա է, դարձելի պրոցեսի դեպքում մնում է հաստատուն, մինչդեռ ոչ դարձելի պրոցեսների դեպքում նրա փոփոխությունը միշտ դրական է, այսինքն՝ աճում է։
- ,
որտեղ -ը էնտրոպիայի աճն է, -ն ՝ համակարգին տրված նվազագույն էներգիան, T-ն՝ բացարձակ ջերմաստիճանը։