Ebooks, Audobooks and Classical Music from Liber Liber
a b c d e f g h i j k l m n o p q r s t u v w x y z





Web - Amazon

We provide Linux to the World


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Entropy – Wikipedia tiếng Việt

Entropy

Bách khoa toàn thư mở Wikipedia

Với entropy trong lý thuyết thông tin, xem entropy thông tin. Kết hợp của cả hai, xem Entropy trong nhiệt động học và lý thuyết thông tin. Với các cách dùng khác, xem Entropy (không rõ ràng), và các bài viết khác trong Thể loại:Entropy.
Tan đá – thí dụ căn bản của sự tăng lên entropy
Tan đá – thí dụ căn bản của sự tăng lên entropy

Trong nhiệt động lực học, entropy nhiệt động lực (hay gọi đơn giản là entropy) dS là một đơn vị đo lường khối lượng năng lượng dQ phát tán/hấp thụ khi một hệ vật lý chuyển trạng thái tại một nhiệt độ tuyệt đối xác định T (dS = dQ / T). Trong cơ học thống kê, entropy được định nghĩa như là một đơn vị đo lường khả năng mà một hệ có thể rơi vào trạng thái độ trong một tình trạng, nó thường được gọi là "sự lộn xộn" hay "tính bừa" thể hiện trong một hệ.[1]

Mục lục

[sửa] Lịch sử

Xem chi tiết: Lịch sử của entropy



Lịch sử ngắn ngủi của entropy bắt đầu với công trình của nhà toán học Lazare Carnot người đã đưa ra nguyên lý rằng trong mọi cơ cấu tăng tốc và va chạm của những phần đang chuyển động tất cả đều có hiện diện của những thiệt hại về "moment chuyển động trong cuốn sách Các nguyên lý căn bản của cân bằng và chuyển động năm 1803 của ông. Nói cách khác, trong bất kỳ một quá trình tự nhiên nào đều tồn tại một xu hướng cố hữu về sự tiêu phí năng lượng hữu ích. Dựa trên công trình này, năm 1824 con trai của Lazare Sadi Carnot đã xuất bản cuốn Những suy ngẫm về năng lượng chuyển động của lửa trong đó ông đặt ra quan điểm răng trong mọi cơ chế nhiệt lượng “caloric”, hay cái hiện nay gọi là sức nóng, di chuyển từ phía nóng sang phía lạnh và rằng "luôn có một số calori mất đi". Những calori mất đi này báo trớc hình thức mất entropy như chúng ta biết. Mặc dù được định dạng ở hình thức calori, chứ không phải là entropy, đây là một sự nhìn vào bên trong sớm về định luật thứ hai về nhiệt lượng. Trong những năm 1850, Rudolf Clausius đã mang lại cho sự "mất calori" này một sự giải thích toán học và gọi nó là entropy. Sau đó, những người như Ludwig Boltzmann, Willard Gibbs, và James Clerk Maxwell coi entropy là căn bản thống kê.

[sửa] Khái quát

The typical example of entropy loss is the combustion of hydrogen and the release of energy in the form of work. Here, energy is released from the hydrogen in the form of heat and mechanical work, from the pressure forcing the gas outward. While the energy released can be used to do work, some of it cannot. The heat created in such combustion would not be available to do work, and thus contributes to the entropy of the system. The combusted form of hydrogen - water - would have greater entropy than the hydrogen had before combustion.

Many quantities of matter tend to equalize their thermodynamic parameters - reducing differentials towards zero. Pressure differences, density differences, and temperature differences, all tend towards equalizing. Entropy is a measure of how far along this process of equalization has come. Entropy increases as this equalization process advances. For example, the combined entropy of "a cup of hot water in a cool room" is less than the entropy of "the room and the water after it has cooled (and warmed the room slightly)," because the heat is more evenly distributed. The entropy of the room and the empty cup after the water has evaporated is even higher.

Statistical mechanics explains entropy as the amount of uncertainty (or "mixedupness" in the phrase of Gibbs) which remains about a system, after its observable macroscopic properties have been taken into account. For a given set of macroscopic quantities, like temperature and volume, the entropy is a function of the probability that the system is in various quantum states. The more states available to the system with higher probability, the greater the "disorder" and thus, the greater the entropy.

Here, it is important to distinguish the definition of disorder in the context of entropy and the definition of disorder in the context of everyday usage. In physics, the term "disorder" in this sense refers to a specific, well-defined quantity, while disorder in everyday usage is more akin to disorganization. The two definitions match up because adding heat to a system, which increases its classic thermodynamic entropy, also increases the system's thermal fluctuations, so giving an increased lack of information about the exact microscopic state of the system, i.e. an increased statistical mechanical entropy. This will be considered in more detail below.

The entropy in statistical mechanics can be considered as a specific application of Shannon entropy, according to a viewpoint known as MaxEnt thermodynamics. Roughly speaking, Shannon entropy is proportional to the minimum number of yes/no questions you have to ask to get the answer to some question. The statistical mechanical entropy is then proportional to the minimum number of yes/no questions you have to ask in order to determine the microstate, given that you know the macrostate.

[sửa] Các đơn vị và các biểu tượng

Entropy is a key physical variable in describing a thermodynamic system. The SI unit of entropy is a joule per kelvin (J·K−1), which is the same as the unit of heat capacity, and entropy is said to be thermodynamically conjugate to temperature. The entropy depends only on the current state of the system, not its detailed previous history, and so it is a state function of the parameters like pressure, temperature, etc., which describe the observable macroscopic properties of the system. Entropy is usually symbolized by the letter S.

There is an important connection between entropy and the amount of internal energy in the system which is not available to perform work. In any process where the system gives up an energy ΔE, and its entropy falls by ΔS, a quantity at least TR ΔS of that energy must be given up to the system's surroundings as unusable heat. Otherwise the process will not go forward. (TR is the temperature of the system's external surroundings, which may not be the same as the system's current temperature T ).

[sửa] Định luật thứ hai

Có nhiều cách để phát biểu định luật thứ hai của nhiệt động học như:'Nhiệt chỉ co thể tự truyền từ vật nóng hơn sang vật lạnh hơn'. hoặc' Trong bất kì một quá trình tự diễn biến nào, êntropi tổng của hệ và môi trường xung quanh phải tăng'.

                    Dương Việt Dũng INSA de Lyon

[sửa] Định nghĩa nhiệt động lực học

Vào những năm đầu thập kỉ 1850, Rudolf Clausius đã đưa ra khái niệm về năng lượng phân hủy.Đặc biệt hơn, ông đã đưa ra tiếp khái niệm về hệ nhiệt động học và đã tạo nên một cuộc tranh luận gắt gao về vấn đề rằng trong bất ki một quá trình phản ứng một chiều nào thì một phần nhỏ năng lượng dQ cũng sẽ thoát ra ngoài hệ. Năm 1876, kĩ sư hóa học Willard Gibbs, dựa trên những nghiên cứu của Clausius và Hermann von Helmholtz, đã đưa ra cách nhìn mới về năng lượng tự do Gibbs,trong nhiệt động học sử dụng giá trị T.&DeltaS để chỉ phần năng lượng mất đi của hệ ΔH.Những khái niệm về nhiệt động học tiếp tục được phát triển bởi James Clerk Maxwell [1871] và Max Planck [1903].

[sửa] Trình bày thống kê

Xem chi tiết: Entropy (statistical views)

In the 1877, thermodynamicist Ludwig Boltzmann visualized a probabilistic way to measure the entropy of the ensemble of ideal gas particles; in which he position entropy to be proportional to the logarithm of the number of microstates such a gaseous body could occupy. Henceforth, the essential problem in statistical thermodynamics, i.e. according to Erwin Schrodinger, has been to determine the distribution of a given amount of energy E over N identical systems.

[sửa] The arrow of time

Xem chi tiết: Entropy (arrow of time)

Entropy is the only quantity in the physical sciences that "picks" a particular direction for time, sometimes called an arrow of time. As we go "forward" in time, the Second Law of Thermodynamics tells us that the entropy of an isolated system can only increase or remain the same; it cannot decrease. Hence, from one perspective, entropy measurement is thought of as a kind of clock.

[sửa] Entropy và vũ trụ học

We have previously mentioned that the universe may be considered an isolated system. As such, it may be subject to the Second Law of Thermodynamics, so that its total entropy is constantly increasing. It has been speculated that the universe is fated to a heat death in which all the energy ends up as a homogeneous distribution of thermal energy, so that no more work can be extracted from any source.

If the universe can be considered to have increasing entropy, then, as Roger Penrose has pointed out, an important role in the disordering process is played by gravity, which causes dispersed matter to accumulate into stars, which collapse eventually into black holes. Jacob Bekenstein and Stephen Hawking have shown that black holes have the maximum possible entropy of any object of equal size. This makes them likely end points of all entropy-increasing processes.

The role of entropy in cosmology remains a controversial subject. Recent work has cast extensive doubt on the heat death hypothesis and the applicability of any simple thermodynamic model to the universe in general. Although entropy does increase in an expanding universe, the maximum possible entropy rises much more rapidly and leads to an "entropy gap," thus pushing the system further away from equilibrium with each time increment. Complicating factors, such as the energy density of the vacuum and macroscopic quantum effects, are difficult to reconcile with thermodynamical models, making any predictions of large-scale thermodynamics extremely difficult.

[sửa] Entropy trong tiểu thuyết

  • Martin Amis's Time's Arrow, a novel written in reverse.
  • Isaac Asimov's "The Last Question," a short science fiction story about entropy
  • Thomas Pynchon, an American author who deals with entropy in many of his novels
  • Diane Duane's Young Wizards series, in which the protagonists' ultimate goal is to slow down entropy and delay heat death.
  • Gravity Dreams by L.L. Modesitt Jr.
  • "The Arrow of Time," an essay by journalist K.C. Cole, takes the physical law of entropy and metaphorically applies it to real life.
  • Jeremy Rifkin's Entropy: A New World View, a notorious misinterpretation of entropy [2]
  • The Planescape setting for Dungeons & Dragons includes the Doomguard faction, who worship entropy.
  • Arcadia, a play by Tom Stoppard, explores entropy, the arrow of time, and heat death.
  • Stargate SG-1 and Atlantis, science-fiction television shows where a ZPM (Zero Point Module) is depleted when it reaches maximum entropy
  • "Time's Arrow," a two-part episode of Star Trek: The Next Generation

[sửa] Xem thêm

  • Arrow of time
  • Black hole
  • Enthalpy
  • Entropic force
  • Entropy of mixing
  • Information entropy
  • Kolmogorov-Sinai entropy (in dynamical systems)
  • Logarithmic units
  • Maxwell's demon
  • Residual entropy
  • Thermodynamic potential
  • Negentropy
  • Statistical Mechanics

[sửa] Tham khảo

  1. ^ Answers.com
  2. Fermi, Enrico (1937). Thermodynamics, Prentice Hall. ISBN 048660361X.
  3. Kroemer, Herbert; Charles Kittel (1980). Thermal Physics, 2nd Ed., W. H. Freeman Company. ISBN 0716710889.
  4. Penrose, Roger (2005). The Road to Reality : A Complete Guide to the Laws of the Universe. ISBN 0679454438.
  5. Reif, F. (1965). Fundamentals of statistical and thermal physics, McGraw-Hill. ISBN 0070518009.
  • Goldstein, Martin, and Inge F., 1993. The Refrigerator and the Universe. Harvard Univ. Press. A gentle introduction.

[sửa] Liên kết ngoài

Our "Network":

Project Gutenberg
https://gutenberg.classicistranieri.com

Encyclopaedia Britannica 1911
https://encyclopaediabritannica.classicistranieri.com

Librivox Audiobooks
https://librivox.classicistranieri.com

Linux Distributions
https://old.classicistranieri.com

Magnatune (MP3 Music)
https://magnatune.classicistranieri.com

Static Wikipedia (June 2008)
https://wikipedia.classicistranieri.com

Static Wikipedia (March 2008)
https://wikipedia2007.classicistranieri.com/mar2008/

Static Wikipedia (2007)
https://wikipedia2007.classicistranieri.com

Static Wikipedia (2006)
https://wikipedia2006.classicistranieri.com

Liber Liber
https://liberliber.classicistranieri.com

ZIM Files for Kiwix
https://zim.classicistranieri.com


Other Websites:

Bach - Goldberg Variations
https://www.goldbergvariations.org

Lazarillo de Tormes
https://www.lazarillodetormes.org

Madame Bovary
https://www.madamebovary.org

Il Fu Mattia Pascal
https://www.mattiapascal.it

The Voice in the Desert
https://www.thevoiceinthedesert.org

Confessione d'un amore fascista
https://www.amorefascista.it

Malinverno
https://www.malinverno.org

Debito formativo
https://www.debitoformativo.it

Adina Spire
https://www.adinaspire.com