Кто-нибудь разбирающийся, объясните пожалуйста: что такое энтропия? Меня не устроит объяснение, как: «-Это мера беспорядка» дополняя сухими формулами и копипастами из учебников.
Например: почему энтропия(мера беспорядка?) имеет размерность энергии на температуру? Какую связь она имеет с работой, температурой, давлением, и другими физическими величинами?
Что из учебников ты уже открывал?
По этой теме пока только Фейнмана.
Как много времени вы готовы потратить на понимание ответа на ваш вопрос?
На простом уровне можно сказать так: энтропия это фундаментальная характеристика нашей Вселенной (или нашего бытия, как угодно). Более фундаментальная, чем температура.
Это как спин. Можно попытаться придумать физическое объяснение, что это электрон вращается[1], но на самом деле это просто характеристика элементарных частиц. Такая же как электрический заряд или масса, а может даже и более фундаментальная (ибо вроде бы заряд и масса не имманентные характеристики а продукт взаимодействия с неким полем).
-
а вместе с ним в гробу вращается Паули. Простите, не удержался. ↩︎
Я бы хотел углубленного понимания, поэтому готов углубиться в чтение ответов с использованием умных слов на мои вопросы.
Для начала наверно над понять, что энтропия всегда растет. Энтропия для замкнутых систем, изолированной системы не может уменьшаться. Все процессы в вселенной стремятся к равновесию, любые возмущения это энергия. Энергия со временем полностью растворится, но в реальном мире, скорее всего этот процесс бесконечный. В общем вся энергия во вселенной, а то есть и вся материя, через огромное количество времени растворится в пространстве. Но это произойдет через очень огромное количество времени. Именно этот процесс стремления к равновесию и есть энтропия.
Энтропия для обратимых процессов равна нулю, но в реальном мире, все процессы необратимы, точнее рано или поздно все процессы будут необратимы. Нельзя будет бесконечно переводить одну энергию в другую, всегда будут потери. Допустим при сжигании угля, если все продукты деятельности каким то образом перевести обратно в уголь, угля будет уже намного меньше, так как энергия рассеялась в виде тепла и тд.
Вопрос, в принципе, хороший. Но чтобы у тебя сложилось хотя бы общее впечатление того, что такое энтропия и с чем её едят, тебе всё равно нужно ходить “вокруг да около” с поиском ответа. И, как это и должно быть в процессе изучения науки, ты должен “повторить” её исторический путь развития, чтобы прийти к общему пониманию.
Вкратце, энтропия пришла к нам при теоретическом изучении эффективности термодинамических машин. Это, к примеру, тот же школьный цикл Карно. Кстати, в процессе самого развития феноменологической термодинамики были разные формулировки её второго начала (привет физикам, которые не пропустили третью главу второго тома Сивухина). А затем этим трактовкам придали единый математический вид в виде неравенства Клаузиуса, которое выражает верхний предел эффективности произвольной тепловой машины. А там наглядно и появилась формула энтропии \displaystyle\text{d}S=\delta Q/T. Эту формулу можно использовать “где подряд” в типовых задачах и даже на уровне серьёзных олимпиад, но это, по сути, всего лишь наивное “применение” формулы без “анализа” его происхождения (и потому могут и появляться довольно простые, на первый взгляд, вопросы, которые вытекают из вот таких обстоятельств). Изучение программы по траектории историцизма в полной же мере покажет всю глубину подобных формул.
Изучили эти основы? Хорошо, теперь становится логичным, почему “в замкнутой системе энтропия стремится к максимуму”. Но суть в том, что это определение в буквальном смысле подразумевает, что однажды энтропия обязательно придёт к максимуму, и после этого все процессы прекратятся. А это идёт в противоречие с логикой, которую приводит молекулярно-кинетическая теория.
Поэтому однажды Планк задал энтропии статистическое определение. В молекулярно-кинетической теории довольно легко оперировать вероятностями систем. Логично, что наиболее вероятному состоянию соответствует равновесное состояние системы. Получается, между законом возрастания энтропии и законом возрастания вероятности есть какая-то прямая взаимосвязь. Ещё немного рассуждений, и появилась формула S=k\ln P, где P – вероятность данного макросостояния системы. В этом смысле система в равновесном состоянии может испытывать незначительные флуктуации от её равновесного состояния, что, по сути, не подвергает прошлый закон возрастания энтропии каким-либо особым изменениям, но и открывает новое понимание этой характеристики.
А потом любители научпопа прицепились к этому феномену и начали называть энтропию “мерой беспорядка”.
Помимо этого есть определение энтропии как функции экстенсивных параметров определенной для равновесных состояний и обладающих следующими свойствами:
- При отсутствии внутренних ограничений энтропия системы принимает максимальное значение
- Энтропия аддитивна по составляющим системы
- Энтропия является непрерывной, дифференцируемой и монотонно возрастающей функцией внутренней энергии
- При \displaystyle \frac{\partial U}{\partial S}=0 энтропия любой системы равна нулю
Существование данной функции и данные свойства можно рассматривать как постулаты термодинамики, определяющие понятия равновесного состояния. Таким образом, энтропию можно рассматривать как “искусственно” введенную функцию, у которой впоследствии выявляется некоторый физический смысл.
С таким подходом можно определить связь энтропии с остальными параметрами через фундаментальное уравнение системы в виде S(U, V, N_j), откуда при взятии дифференциала и проведении аналогии с первым началом термодинамики (dQ = dU + pdV) обнаружится связь энтропии с давлением и температурой:
Более подробно про все это можно посмотреть в Thermodynamics and an Introduction to thermostatistics.
Если говорить про статистический смысл энтропии, то предположительно он следует из теоремы Луивилля, из которой следует, что функция распределения должна выражаться через параметры зависящие от инвариантов для системы. Учитывая аддитивность энтропии и логарифма функции распределения можно вывести линейную связь между ними.
(про подобный вывод говорится в Ландау Лифшице, статистическая физика часть 1, однако там он применяется только для механических интегралов движения и я не уверен насколько энтропия подходит в нашем случае)
Понятно, тут уже много написали, и даже упомянули пятый том Ландау и Лифшица. Но его невозможно читать. Поэтому вот, я тебе кину два тома физической химии, тебе нужен будет второй, там буквально то же самое, что и в ландавшице (некоторые параграфы просто скопированы), но автор расширяет текст и пытается его объяснить понятным языком и на примерах, пока я читал эту книгу, поймал себя на мысли, что автор предвосхищал мои вопросы и давал на них пояснения
Sorry for answering in English. But, I would say that since your only introduction to the topic has been Feynman’s lectures, try reading the Entropy article given in (PDF) Schroeder daniel thermal physics | Jimothy Terrence - Academia.edu. It is quite nicely written.
@nuray вам такой вопрос (просто ответьте на него, как только ответите, я опубликую вторую часть в которой станет понятно зачем я его вам задал).
Представьте у вас есть два сосуда, которые изолированы от всей окружающей среды (т.е. между ними и окружающей средой не может происходить ни обмена энергии, ни обмена материи).
Но между собой эти два сосуда могут обмениваться энергией (но не материей).
Сосуд 1 можно охарактеризовать внутренней энергией U_1, а сосуд 2 внутренней энергией U_2.
Предположим, что система находится не в равновесии и если мы дадим ей время, энергия будет переходить от сосуда 1 к сосуду 2. Ну т.е. U_1 уменьшится, а U_2 увеличится.
Вопрос такой: до того как вы увидите что энергия переходит 1\to2, если вы можете узнать любую физическую характеристику каждой из систем и сравнить ее между двумя системами, по какой физической характеристике вы сможете предсказать, что энергия будет идти от сосуда 1 к сосуду 2?
Я понял энтропию когда взял в пример три фазовых состояния воды. Это плоско, но мне стало ясно что это. К примеру когда вода в газовом состоянии, там больше движения частиц чем в жидком состоянии, соответственно энтропия воды в газовом состоянии больше чем в жидком, потому что больше этого беспорядка и хаоса. Так же и в твердом состоянии воды есть энтропия, но она крайне мала, и в расчетах ее не берут(по крайней мере не встречались). И да, может ли энтропия быть равна нулю? - Нет. И вот почему. По определению, нулевая энтропия - у абсолютно правильного бесконечного (без поверхности) кристалла при температуре абсолютного нуля. В этом и состоит третье начало термодинамики, которое называют также теоремой Нернста - по имени немецкого ученого Вальтера Нернста, лауреата Нобелевской премии по физике за 1920 год. Теорема Нернста позволяет рассчитывать теоретически энтропию различных веществ при разных температурах. А как мы знаем самая низкая температура во Вселенной равна -272, тогда как абсолютный ноль равен -273 градусам.
Спасибо всем, кто ответил и посоветовал чтиво. Особенно благодарен @Alisher, вы помогли в понимании.
Температура
Отлично!
В продолжении этого.
Давайте посмотрим как ее можно обнаружить.
Перед этим, давайте примем[1], что любую систему можно описать тремя параметрами: внутренней энергией U, объемом V и количеством частиц N. Иными словами, этих трех параметров достаточно для описания всех особенностей системы. Возьмем некую функцию этих трех переменных S(U,V,N). Примем, что в ходе любых процессов эта функция не убывает (иными словами \Delta S \geq 0).
Небольшой экскурс в матанализ
Возьмем некую прямую на плоскости y=kx+b. Надеюсь вы согласитесь, что
Что тоже самое, что и:
Если мы возьмем лимит \Delta x \to 0
Мы называем dy дифференциалом функции y. Функция y это функция одной переменной f(x).
А что если у нас есть некая функция двух переменных f(x,y)? Multi-variable calculus нам говорит, что мы можем посмотреть на прирост функции f по отдельности: чисто в направлении dx и чисто в направлении dy. Иными словами:
\partial - значок частной производной. \left( \frac{\partial f}{\partial x} \right)_y значит давайте возьмем производную функции f по x принимая y за константу.
Например, для f=x^2+y^2, \partial f/\partial x = 2x, \partial f/\partial y=2y[2]
Тоже самое можно записать и для функции трех переменных f(x,y,z):
Вернемся к физике
У нас есть функция S(U,V,N). Мы можем записать дифференциал этой функции (по сути просто перепишем уравнение (5) с другими символами):
Так, нам это пригодится.
Теперь собственно в чем был замес с сосудами. Для полноты картины у каждого сосуда надо обозначить три переменные: U_1, V_1, N_1 и U_2,V_2,N_2. Зачем мы запрещали взаимообмен материи? Чтобы можно было сказать, что dN_1=dN_2=0. Если мы еще примем, что сосуды имеют жесткие стенки, то и dV_1=dV_2=0.
Таким образом:
Где я обозвал частную производную k_i просто чтоб меньше писать.
Так, как я и говорил, давайте допустим, что энергия перетекает от сосуда 1 к сосуду 2. Тогда
Из закона сохранения энергии \Delta U_1+\Delta U_2=0, значит \Delta U_1=-\Delta U_2. В процессе также изменится энтропия:
Из 2-го закона термодинамики (ну и мы в начале постулировали, что наша вундер-функция S не убывает) \Delta S = \Delta S_1+\Delta S_2 \geq 0
Давайте возьмем лимит \Delta U_i \to 0, тогда d S = dS_1+dS_2 \geq 0. Это полезно, ибо мы можем выразить дифференциал S_i через U_i по уравнению (7):
Где мы вспомнили, что dU_1=-dU_2 по закону сохранения энергии.
Теперь, мы говорили, что энергия переходит от 1 к 2. Значит dU_1 <0. Значит k_1-k_2 \leq 0 (дабы выполнялось dS\geq 0.
Значит k_1 \leq k_2. Но нам хочется, чтобы энергия текла от чего-то большого, к чему-то маленькому. Давайте тогда обозначим k_i=1/c_i, тогда 1/c_1 \leq 1/c_2 или c_1 \geq c_2. Энергия идет от большого c_1 к малому с_2.
Что такое c_1? Ну вы сами предположили,
Давайте обзовем c_i некой мерой количества энергии, так, что при стремлении к равновесию энергия будет идти от больших c_i к малым. Вспомнив что обозначает k_i из уравнения 7 делаем вывод:
Можно повторить такие мысленные эксперименты, но уже держать постоянными не V,N, а U,N или U,V. В итоге мы обнаружим: (кстати @Ersultan вы точно со знаком не ошиблись?)
где \mu – химический потенциал. Что такое химический потенциал? Стремление частиц идти от одного сосуда к другому при равных U, V. В итоге можем записать:
Можем помножить на T и преобразовать в дифференциал внутренней энергии:
Знакомые выражения, да?) Тут кстати еще можно сказать, что переменные S, V, N естественные/фундаментальные для внутренней энергии (так же как U, V, N для энтропии). Потом если просто вводить какие-то новые функции типа H=U + pV, можно записать дифференциал dH = dU + Vdp + pdV, подставить dU из выражения (15). Потом можно ввести G=H-TS и также прийти к дифференциалу dG. Короче там много чего веселого можно получить.
P.S. Ставьте лукаса если хотите, чтоб я показал как можно вывести уравнение pV=nRT из статистического определения энтропии.