パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

ルネサスエレクトロニクス、大型表示ドライバ事業から撤退」記事へのコメント

  • 次は何かね。マネーゲーム?w

    • by Anonymous Coward on 2012年02月01日 13時17分 (#2091261)

      快楽・快適を国民が享受してそれに憧れる後進国追従者を作るのが先進国の役割で先進国産業の生きる道だから
      今の日本は全分野でえらく高水準だけど脆弱性を孕んでて住人のモラルで維持し修羅国では通用しないモンばっかりだからね

      親コメント
      • by Anonymous Coward

        >今の日本は全分野でえらく高水準だけど

        政治、経済、教育、娯楽など、どの分野が「えらく高水準」でしょうか?
        個人的には交通の利便性と行政サービスは高水準だと思いますが、それ以外は特に…。

        • どれも高水準だよ。エントロピーが
          親コメント
          • by Anonymous Coward

            エントロピーって語の意味をちゃんと分かった上で使ってる?

            • by Anonymous Coward
              ちゃんとわかってる君に説明してもらおうか。
              • by Anonymous Coward

                微視的に言うなら、

                ・巨視的に一つと見なされる状態が含む、微視的な状態数の総数(の対数をとってボルツマン定数をかけたもの)

                例えばある温度T、体積V、圧力Pの気体のエントロピーは、そのT、V、Pを満たすような気体分子のエネルギーと運動量の分配のやり方全てを数え上げて、対数とってボルツマン定数をかけたものになる。

                巨視的に言うなら、

                ・系のある非常に微小な変化にともなう変化量ΔSが、入ってきた熱量をQ、その変化の間一定と見なせる温度Tを使って、ΔS = Q/Tと表せる量。ただし絶対零度における値をゼロとする。

                になる。

              • by Anonymous Coward

                エントロピーの概念を複数の状態が同時に存在しうるあらゆる系に一般化すれば、X = iとなる確率Piであるとき、確率変数 X に対し、X のエントロピー H(X) を定められる。

                          H(X)= -Σ(Pi log Pi)

                これは統計力学で一番直接的に使われているように、状態の「乱雑さ」を示すことになる。logの底を2にすれば、ハフマン符号化して、情報を最大限まで圧縮したときに系を説明するのに必要な情報量とも一致するから、情報の乱雑さ、状態の乱雑さの尺度として一般化できるし、実際に情報数理やそれ以外の数学分野、経済学、生態学、、、かなりの分野で一般化して使われている

              • by Anonymous Coward

                >系を説明するのに必要な情報量

                これって、系をどの程度粗視化するかに依存するわけですよね?
                例えば、良く統計力学で最初の方に出てくるような気体の熱力学だって、ありとあらゆる変数を厳密に再現するんなら全粒子の全運動量と全位置情報を指定して一意に(ただ一つの状態として)決まるわけじゃないですか。

                マクロな意味での状態を一つ指定した時に、ミクロな対応する状態が沢山ある、ってのはわかるんですが、そもそも系をマクロな量で指定する必然性(というか何というか)がよくわからなくなってくるんですよね。

                うまく言えないのですが、なんというか、観測者が勝手に設定した粗視化に基づくエントロピーって、「物理量」なのかなあ、と。
                我々が「温度・圧力・体積」というたった三つのマクロな量で認識してる(故に該当する微視的状態がいっぱいあって、エントロピーが大きくなる)状態だって、系をものすごく微視的に見てる存在にとってはもっと情報量の多い系であって、エントロピーが小さいとかそう言うことはないのかなあと。

              • by Anonymous Coward

                物理量かどうかというと、情報量が物理量だとは言っていないので、わけわからんですね。

                http://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F [wikipedia.org]

                観測者が勝手に設定した粗視化に基づくエントロピーというのは、そもそもおかしな言い方です。というのは、そもそもエントロピーが熱力学的な観測量からでてきたときには、古典力学の世界による記述を意図しており、離散的な状態という概念は使えません。ボルツマンが状態数という概念を持ち込んだことは、まさに勝手に粗視化を設定しています。そして、気体分子の統計力学自体、古典力学で書き下され、熱力学的な観測との一致が確認されます。

                歴史的にはエントロピーという概念が考えられた時に既に勝手に設定した粗視化に基づいて定義されていたと言えます。

最初のバージョンは常に打ち捨てられる。

処理中...