アカウント名:
パスワード:
次は何かね。マネーゲーム?w
快楽・快適を国民が享受してそれに憧れる後進国追従者を作るのが先進国の役割で先進国産業の生きる道だから今の日本は全分野でえらく高水準だけど脆弱性を孕んでて住人のモラルで維持し修羅国では通用しないモンばっかりだからね
>今の日本は全分野でえらく高水準だけど
政治、経済、教育、娯楽など、どの分野が「えらく高水準」でしょうか?個人的には交通の利便性と行政サービスは高水準だと思いますが、それ以外は特に…。
エントロピーって語の意味をちゃんと分かった上で使ってる?
微視的に言うなら、
・巨視的に一つと見なされる状態が含む、微視的な状態数の総数(の対数をとってボルツマン定数をかけたもの)
例えばある温度T、体積V、圧力Pの気体のエントロピーは、そのT、V、Pを満たすような気体分子のエネルギーと運動量の分配のやり方全てを数え上げて、対数とってボルツマン定数をかけたものになる。
巨視的に言うなら、
・系のある非常に微小な変化にともなう変化量ΔSが、入ってきた熱量をQ、その変化の間一定と見なせる温度Tを使って、ΔS = Q/Tと表せる量。ただし絶対零度における値をゼロとする。
になる。
エントロピーの概念を複数の状態が同時に存在しうるあらゆる系に一般化すれば、X = iとなる確率Piであるとき、確率変数 X に対し、X のエントロピー H(X) を定められる。
H(X)= -Σ(Pi log Pi)
これは統計力学で一番直接的に使われているように、状態の「乱雑さ」を示すことになる。logの底を2にすれば、ハフマン符号化して、情報を最大限まで圧縮したときに系を説明するのに必要な情報量とも一致するから、情報の乱雑さ、状態の乱雑さの尺度として一般化できるし、実際に情報数理やそれ以外の数学分野、経済学、生態学、、、かなりの分野で一般化して使われている
>系を説明するのに必要な情報量
これって、系をどの程度粗視化するかに依存するわけですよね?例えば、良く統計力学で最初の方に出てくるような気体の熱力学だって、ありとあらゆる変数を厳密に再現するんなら全粒子の全運動量と全位置情報を指定して一意に(ただ一つの状態として)決まるわけじゃないですか。
マクロな意味での状態を一つ指定した時に、ミクロな対応する状態が沢山ある、ってのはわかるんですが、そもそも系をマクロな量で指定する必然性(というか何というか)がよくわからなくなってくるんですよね。
うまく言えないのですが、なんというか、観測者が勝手に設定した粗視化に基づくエントロピーって、「物理量」なのかなあ、と。我々が「温度・圧力・体積」というたった三つのマクロな量で認識してる(故に該当する微視的状態がいっぱいあって、エントロピーが大きくなる)状態だって、系をものすごく微視的に見てる存在にとってはもっと情報量の多い系であって、エントロピーが小さいとかそう言うことはないのかなあと。
物理量かどうかというと、情報量が物理量だとは言っていないので、わけわからんですね。
http://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F [wikipedia.org]
観測者が勝手に設定した粗視化に基づくエントロピーというのは、そもそもおかしな言い方です。というのは、そもそもエントロピーが熱力学的な観測量からでてきたときには、古典力学の世界による記述を意図しており、離散的な状態という概念は使えません。ボルツマンが状態数という概念を持ち込んだことは、まさに勝手に粗視化を設定しています。そして、気体分子の統計力学自体、古典力学で書き下され、熱力学的な観測との一致が確認されます。
歴史的にはエントロピーという概念が考えられた時に既に勝手に設定した粗視化に基づいて定義されていたと言えます。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
私はプログラマです。1040 formに私の職業としてそう書いています -- Ken Thompson
日本のものづくりは終わったようだ (スコア:0)
次は何かね。マネーゲーム?w
Re: (スコア:0)
快楽・快適を国民が享受してそれに憧れる後進国追従者を作るのが先進国の役割で先進国産業の生きる道だから
今の日本は全分野でえらく高水準だけど脆弱性を孕んでて住人のモラルで維持し修羅国では通用しないモンばっかりだからね
Re: (スコア:0)
>今の日本は全分野でえらく高水準だけど
政治、経済、教育、娯楽など、どの分野が「えらく高水準」でしょうか?
個人的には交通の利便性と行政サービスは高水準だと思いますが、それ以外は特に…。
Re: (スコア:2)
Re:日本のものづくりは終わったようだ (スコア:0)
エントロピーって語の意味をちゃんと分かった上で使ってる?
Re: (スコア:0)
Re: (スコア:0)
微視的に言うなら、
・巨視的に一つと見なされる状態が含む、微視的な状態数の総数(の対数をとってボルツマン定数をかけたもの)
例えばある温度T、体積V、圧力Pの気体のエントロピーは、そのT、V、Pを満たすような気体分子のエネルギーと運動量の分配のやり方全てを数え上げて、対数とってボルツマン定数をかけたものになる。
巨視的に言うなら、
・系のある非常に微小な変化にともなう変化量ΔSが、入ってきた熱量をQ、その変化の間一定と見なせる温度Tを使って、ΔS = Q/Tと表せる量。ただし絶対零度における値をゼロとする。
になる。
Re: (スコア:0)
エントロピーの概念を複数の状態が同時に存在しうるあらゆる系に一般化すれば、X = iとなる確率Piであるとき、確率変数 X に対し、X のエントロピー H(X) を定められる。
H(X)= -Σ(Pi log Pi)
これは統計力学で一番直接的に使われているように、状態の「乱雑さ」を示すことになる。logの底を2にすれば、ハフマン符号化して、情報を最大限まで圧縮したときに系を説明するのに必要な情報量とも一致するから、情報の乱雑さ、状態の乱雑さの尺度として一般化できるし、実際に情報数理やそれ以外の数学分野、経済学、生態学、、、かなりの分野で一般化して使われている
Re: (スコア:0)
>系を説明するのに必要な情報量
これって、系をどの程度粗視化するかに依存するわけですよね?
例えば、良く統計力学で最初の方に出てくるような気体の熱力学だって、ありとあらゆる変数を厳密に再現するんなら全粒子の全運動量と全位置情報を指定して一意に(ただ一つの状態として)決まるわけじゃないですか。
マクロな意味での状態を一つ指定した時に、ミクロな対応する状態が沢山ある、ってのはわかるんですが、そもそも系をマクロな量で指定する必然性(というか何というか)がよくわからなくなってくるんですよね。
うまく言えないのですが、なんというか、観測者が勝手に設定した粗視化に基づくエントロピーって、「物理量」なのかなあ、と。
我々が「温度・圧力・体積」というたった三つのマクロな量で認識してる(故に該当する微視的状態がいっぱいあって、エントロピーが大きくなる)状態だって、系をものすごく微視的に見てる存在にとってはもっと情報量の多い系であって、エントロピーが小さいとかそう言うことはないのかなあと。
Re: (スコア:0)
物理量かどうかというと、情報量が物理量だとは言っていないので、わけわからんですね。
http://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F [wikipedia.org]
観測者が勝手に設定した粗視化に基づくエントロピーというのは、そもそもおかしな言い方です。というのは、そもそもエントロピーが熱力学的な観測量からでてきたときには、古典力学の世界による記述を意図しており、離散的な状態という概念は使えません。ボルツマンが状態数という概念を持ち込んだことは、まさに勝手に粗視化を設定しています。そして、気体分子の統計力学自体、古典力学で書き下され、熱力学的な観測との一致が確認されます。
歴史的にはエントロピーという概念が考えられた時に既に勝手に設定した粗視化に基づいて定義されていたと言えます。