2月27日第9回スミルノフ物理学講座:ひも理論,マクスウェルの悪魔等!スミルノフ学派Dr佐野千遥 | フリーエージェント世界革命を提唱するフリーエージェント大学ロシアの有名人・ドクター佐野千遥教授

フリーエージェント世界革命を提唱するフリーエージェント大学ロシアの有名人・ドクター佐野千遥教授

資本主義主力の株式会社制をも覆す、貴方を悩みと賃金奴隷状態から解放するフリ-エージェント世界革命を、誤った現行全自然社会人文科学を根底的体系的に批判し、一枚岩無矛盾の全新厳密科学体系を創り出した(世界史上これに挑んだ他者無し)FA大学佐野千遥教授が領導する

ロシア科学アカデミー・スミルノフ学派論文審査員:ドクター佐野千遥

次回の第9回スミルノフ物理学講座は東京水道橋にて2月27日午後7時~9:30時に開催されます。今回のメイン・テーマは「ひも理論・超弦理論批判」ですが、他にも例えば下記のような皆さんが興味を持っていらっしゃる話題についても、新しい体系のスミルノフ物理学体系から解説します。

御興味の有る方は
http://katakamuna.jp/
のカタカムナ社のHPに入られて、右手に有る「第9回スミルノフ物理学講座」から事前にチケットをお求め下さい。

語学の次回「即聞即答訓練準備講座」は3月中旬に開催予定です。

講演内容は

0.メイン・テーマ:ひも理論、超弦理論の批判
1.前回素粒子論の続き
ニュートリノとダークマター等々について
前回話足りなかったこと

2.確率論と人工知能について、エントロピーの法則

3.スミルノフ学派で実現可能な技術

・AWG
・永久磁石永久機関モ-ター
・トポロジカル超電導回路
・ウランプルトニウム低温解体消滅システム
・メビウス超電動回路
・タイムマシン
・反重力・テレポーテーション・マシン

等々をどのような理論によって作るかの解説

となります。

今回のスミルノフ物理学講座で、情報エントロピーや人工知能にも言及するのは、そうして欲しいとの要望があったからで、その際に私としては現状の情報理論において情報エントロピーが誤れる数学・確率論を基に定義されているのを批判し、確率論を排した決定論的〝自然な情報エントロピー”を世界に先駆けて提起するのも今回の物理学講演の意義であります。それ以外の当日の講演内容はいつもの通り、物理学そのものを論じます。

第1項:“マックスウェルの悪魔”についての確率情報エントロピーとボルツマン熱力学的エントロピーによる論争の結末の虚偽(人工知能でも、この"確率情報エントロピー"が採用されている。)

“マックスウェルの悪魔”とは、物理的熱力学的世界の問題ではあるが、"悪魔"の認識判断によって物理世界に異なった結果が生まれるので、コンピューター数学・人工知能の情報エントロピーが関わる。

“マックスウェルの悪魔”についてWikipediaから引用する。

“マクスウェルが考えた仮想的な実験内容とは以下のようである(Theory of Heat、1872年)。
均一な温度の気体で満たされた容器を用意する。 このとき温度は均一でも個々の分子の速度は決して均一ではないことに注意する。
この容器を小さな穴の空いた仕切りで2つの部分 A, B に分離し、個々の分子を見ることのできる「存在」がいて、この穴を開け閉めできるとする。
この存在は、素早い分子のみを A から B へ、遅い分子のみを B から A へ通り抜けさせるように、この穴を開閉するのだとする。
この過程を繰り返すことにより、この存在は仕事をすることなしに、 A の温度を下げ、 B の温度を上げることができる。 これは熱力学第二法則と矛盾する。”


 マックスウェルの悪魔。分子を観察できる悪魔は仕事をする事無しに温度差を作り出せる。

熱力学的に大きな論争を巻き起こしただけでなく、初め2つの部屋の中には直線速度が速い分子と遅い分子とが同じように混沌と混じり合っていたのが、若し“悪魔”が“素早い分子のみを A から B へ、遅い分子のみを B から A へ通り抜けさせるように、この穴を開閉する”のなら、無秩序状態が分子の直線速度の速い(=「正統派」現代熱力学信奉者の意に反して早い方が温度が低い事は第7回スミルノフ物理学講座で転がり速度運動量不変の法則を基に詳述した。よって“A の温度を下げ、 B の温度を上げる”ではなく、実際はその逆で、「A の温度を上げ、 B の温度を下げる」事になる。)部屋と遅い部屋に分かれる、つまり構造を持つ、秩序を持つようになる、という事が(人為的)情報エントロピーからも言える事が、19世紀「正統派」熱力学の学会に始まり20世紀にまでずれ込んだ“マックスウェルの悪魔”の論争に更に油を注いだ。

その(人為的)情報エントロピーの論は次のような物であった。
情報エントロピーとは確率pを使って
S=-q log⁡q
と定義されている。

初めは全て均質に混沌と混じり合っているのだから、その状態の情報エントロピーは
S_0=-1∙log⁡1=-1∙0=0 (1)
である。

ところで混沌と混じり合っていた分子の中、個数の割合にしてp_Bの速度の速い分子が部屋Bに集結し、個数の割合にしてp_A=1-p_Bの速度の遅い分子が部屋Aに集結した場合の部屋Bのエントロピーは
S_B=-p_B log⁡〖p_B 〗 (2)
部屋Aのエントロピーは
S_A=-(1-p_B)log⁡〖〖(1-p〗_B)〗 (3)
2つの部屋に速い分子、遅い分子が分けられた後の状態の全体のエントロピーは
S_AB=S_A+S_B=-p_B log⁡〖p_B 〗-(1-p_B)log⁡〖〖(1-p〗_B)〗
=log⁡〖〖(1-p〗_B)〗+p_B {log⁡〖〖(1-p〗_B)〗-log⁡〖p_B 〗}
=log⁡〖〖(1-p〗_B)〗+p_B log⁡〖〖1-p〗_B/p_B 〗 (4)
〖1-p〗_Blog⁡〖〖1-p〗_B/p_B 〗<0 (5)
1-p_B<1 だから
log⁡〖〖(1-p〗_B)〗<0 (6)
は自明であり、
確率0p_B log⁡〖〖1-p〗_B/p_B 〗<0 (7)
(6)、(7)を(4)に代入すると
S_AB=log⁡〖〖(1-p〗_B)〗+p_B log⁡〖〖1-p〗_B/p_B 〗<0 (8)
つまり
S_0=0 からS_AB<0 へと変化したのだから、エントロピーの減少が生じた事になる。これは熱力学のエントロピー単調増大法則に反する。

より具体的には例えば速い分子の個数と遅い分子の個数が丁度半々である場合にも
S_AB=log⁡〖〖(1-p〗_B)〗+p_B log⁡〖〖1-p〗_B/p_B 〗=log⁡〖(1-1/2)〗+1/2 log⁡〖(1-1/2)/(1/2)〗=log⁡〖1/2〗+1/2 log⁡〖(1/2)/(1/2)〗
=log⁡〖1/2〗+1/2 log⁡1=-1+1/2∙0=-1<0
となり、
S_AB-S_0<0
となり、エントロピーは減少しており、「正統派」現代熱力学が信奉する“エントロピー単調増大法則”に反する。

我々スミルノフ学派から見ると、丸で笑い話にしかならないのだが、これに対して「正統派」現代熱力学のボルツマン・エントロピー
S=k ln⁡N (Nは状態数、kはボルツマン定数、はボルツマン熱力学エントロピー)
によるクソ真面目な反論がなされ、“「マックスウェルの悪魔」の問題に決着が付けられた。”事になったというのだから、開いた口が塞がらなくなる。

ボルツマン熱力学エンントロピー信奉者の論は以下の通り。
当初、速度の速い分子と遅い分子が分離されずに混沌としていた時の状態数Nは1だから、
S_0=k ln⁡N=k ln⁡1=k∙0=0
速度の速い分子と遅い分子が2つの部屋に分離された後は、状態数が2になったから
S_AB=k ln⁡N=k ln⁡2>0
よってエントロピーの変化は
S_AB-S_0=S_AB-0=S_AB>0
つまり正となったので、紛糾した“マックスウェルの悪魔”の問題についても「正統派」現代熱力学会において“目出度く目出度くエントロピー単調増大が証明された。”“マックスウェルの悪魔の問題に決着が付けられた。”

との事である。開いた口が塞がらない、とはこの事を言うのであろう。

ここでは確率情報エントロピーの同じく確率論ボルツマン熱力学エントロピーに対する「謀反」を扱ったのだが、次章では、今度はスミルノフ物理学からの確率情報エントロピー批判を情報理論の領域まで立ち入って述べる。つまり、そこではスミルノフ物理学に基づく正しい「自然な情報エントロピー」を定義する。これは私による初めての試みとなる。物理的に正しいエントロピーはスミルノフ博士が提起して有ったが、今まで世界の何処にも正しい情報エントロピーの定義は存在しなかった。

熱力学第2法則の嘘
ではここで“熱力学第2法則”に対し反例を上げる事とする。

“熱力学第2法則”“1. クラウジウスの原理 熱が低温の物体から高温の物体に自然に (他に変化を与 えることなく) 流れることはない.”(wiki)

ゼーペック効果(=温度差が生じると温度が高い場所から低い場所に向けての電圧・電位差が生じる現象)でピエゾ物質(圧電物質)の異なる場所に温度差が生じた場合も、温度が高い場所から低い場所に向けての電圧・電位差が生じる。その電圧・電位差が原因でピエゾ物質はその分子の並びの向きによって圧縮・伸長する。伸長する場合には、+と-の本来引き合う筈の電荷同士が遠ざかる事になるため、負の誘電率が発生し、その結果、負の電気抵抗となる。そうなると、先に温度差によって生じていた電圧・電位差と逆向きに、つまり温度の低い点から温度の高い点に向かって電流が流れる事が起こる。つまり電位差の高低は逆転する。又、温度の高い点から温度の低い点に向かって流れる電流は一切熱を発っしない。つまり「正統派」現代熱力学の基礎的枠組みが全てドンデン返しになる。

項:人工知能でも採用されている現行の確率情報エントロピーの誤りと正しい情報エントロピーの定義

私・佐野千遥は1990年代に「人工知能と人工生命」日刊工業新聞社を著した。その付録の23頁~27頁に有る付録3に確率情報エントロピーを使った「学習」ならざる“分類”をする“ID3”なる人工知能システムを或る日常的な卑近な事象に適用した例が掲載されているので、先ずそこから引用する。

1990年代初めまで、私は米国で人工知能・コンピュータによるデータの学習理論を専門にしていたので、そこで取り扱われる米国の化粧品会社の例が、崇高なる社会正義の社会的使命のために日夜奮闘している今日の私とイメージがちぐはぐに食い違うかもしれませんが、計算機数学のための実例と割り切ってお読み下さるようお願いいたします。本ブログでは、当時書いた本の限界を私の今日的スミルノフ物理学の視点から乗り越えた所を詳述しましたので、御期待下さい。

“米国のある化粧品会社の社長が自分の秘書の女性(複数)を求人募集したところ、次のような背丈、髪の色、目の色の女性が八人応募して、ある基準に基づいてその採用・不採用を決定した結果が次のようであったとする。背丈は「低い、高い」に、髪の色は「暗色、赤、ブロンド」に、目の色は「青色、茶色」に区別することとした。

1 背丈が高く、髪が暗色、目が青。 不採用
2 背丈が高く、髪が赤く、目が青。 採用
3 背丈が低く、髪がブロンドで、目が茶色。 不採用
4 背丈が低く、髪が暗色、目が青。 不採用
5 背丈が高く、髪がブロンド、目が茶色。 不採用
6 背丈が高く、髪が暗色、目が茶色。 不採用
7 背丈が高く、髪がブロンド、目が青。 採用
8 背丈が低く、髪がブロンド、目が青。 採用

それでは、この採用不採用の決定がどのような基準により判断されたかを、ID3がどのようにこのクラス分けの教示データからエントロピー計算により、抽出分類するかによって示す。

ID3は、どの属性が最大の情報量、即ち最大のエントロピー減少をもたらすかにより判断を行うメカニズムをもっている。[現行の確率論情報]エントロピーとはpを出現頻度に基づく確率とした時、
S=-p∙log⁡p (1)
で定義される。ここでこの対数の底は2とする。上の例では、背丈、髪の色、目の色の三つの属性それぞれが、どれだけのエントロピー減少をもたらすかが次のように計算される。
 まず、テスト以前における[正確には分類作業以前の入力に対する出力の対応だけを表から見た場合の]、エントロピーは、[入力データ8人の中、3人が採用され、5人が不採用となった出力データの対応より]
-(5/8)∙log⁡(5/8)-(3/8)∙log⁡(3/8)=0.954 ビット (2)
となる。...
次に、例えば背丈の属性が「高い、低い」により、どのくらいの情報量、つまりエントロピー減少をもたらすかを計算する。背丈が高いというクラス分岐は
-(2/5)∙log⁡(2/5)-(3/5)∙log⁡(3/5)=0.971 ビット (3)
となり、背丈が低いというクラス分岐は、
-(1/3)∙log⁡(1/3)-(2/3)∙log⁡(2/3)=0.918 ビット (4)
となる。ここで何故2/5とか3/5のような数が、例えば背丈が高いというクラスのエントロピー計算に現れるかというと、この背丈が高いクラスの総数は1,2,5,6,7番の5人だから、分母が5となるサンプルの範囲内で、採用不採用の出現頻度がそれぞれ2と7番の2つと、1,5,7番の3つであるとデータでなっているからである。...こうしたうえで、その0.971と0.918を総数8に占める背丈が高いサンプル数と背丈が低いサンプル数3の出現頻度の重みを掛けて平均をとる、すなわち
(5/8)∙0.971+(3/8)∙0.918=0.951 ビット (5)
これが先に計算した全サンプルの0.954に比べて、
0.954-0.951=0.003 ビット (6)
と計算されることにより、背丈属性チェックによる獲得情報量が0.003ビットである事が分かった。
同様にして髪の色の属性が「暗色、赤、ブロンド」により、どれくらいの情報量、つまりエントロピー減少をもたらすかを計算する。暗色は1,4,6番の三人が居るが全員不採用だから、
-(0/3)∙log⁡(0/3)-(3/3)∙log⁡(3/3)=0 ビット (7)
赤は2番だけで採用になっているから、
-(1/1)∙log⁡(1/1)-(0/1)∙log⁡(0/1)=0 ビット (8)
ブロンドは二人採用、二人不採用で
-(2/4)∙log⁡(2/4)-(2/4)∙log⁡(2/4)=1 ビット (9)
よって髪の色の属性チェックのエントロピー量は
(3/8)∙0+(1/8)∙0+(4/8)∙1=0.5 ビット (10)
で、テスト前[分類作業前の入力データ8人に対する出力データ採用3人、不採用5人の表面データ]に比しての髪の色チェックによる獲得情報量は
0.954-0.5=0.454と ビット (11) となる。
同様なエントロピー計算を目の色について行うと、青色は2人不採用3人採用、茶色は3人全員不採用である事実を使って、
青色:-(2/5)∙log⁡(2/5)-(3/5)∙log⁡(3/5)=0.971 ビット (12)
茶色:-(0/3)∙log⁡(0/3)-(3/3)∙log⁡(3/3)=0 ビット (13)
目の色のエントロピー量
(5/8)∙0.971+(3/8)∙0=0.607 ビット (14)
よって目の色のチェックによる獲得情報量は
0.954-0.607=0.347 (15)
 よって[0.003、0.454、0.347を比較して]この3つの属性のうち、髪の色のチェックが最大の情報獲得量[0.457]をもたらすので、..データを見たらまず髪の色をチェックし、暗色だったら不採用とし、赤だったら採用とし、ブロンドであった場合だけ、その他の背丈と目の色の属性のチェックへと進む事とする(図a参照)。髪がブロンドなのは3,5,7,8番であるが、そのうち3,5番が不採用で7,8番が採用であった。このブロンドのサンプルを更にクラス分けする上で、再び背丈と目の色の属性チェックがどれだけの獲得情報量をもたらすかを全8サンプルの場合と同様にしてエントロピー計算により求めると、ブロンドについては次に目の色をチェックして、青ければ7,8番の例に見られるように全員採用、茶色なら3,5番の例に見られるように全員不採用と判断している....。図形的特性を述べるなら、クラス分けの最終段階においては、全てのクラス分けの分岐の末端には不採用のデータのみ、または採用のデータのみが並ぶことになる点に注意して頂きたい。”(前掲書27頁)

    髪の色

  暗色 赤 ブロンド

1高、暗、青:不採    2高、赤、青:採用   目の色
  4低、暗、青:不採   X (9高、赤、茶:本当は不採)
  6高、暗、茶:不採   X (11低、赤、茶:本当は不採)
O (12低、暗、茶:不採) O (10低、赤、青:採用)   青    茶

7高、ブロンド、青:採用  3低、ブロンド、茶:不採
8低、ブロンド、青:採用 5高、ブロンド、茶:不採

図a:確率情報エントロピーによる分類結果の決定木
(入出力だけ見て途中経過プロセスを見ない確率論では、1~8のサンプルに上がっていない未来データについてX印の誤りが必然となる。)

以上ID3が遣った事は、ただ単なる確率計算による分類作業にしか過ぎない。データから学習していない事に注意せねばならない。

更に引用しよう。
“このようにデータ[を分類した経験を持った]ID3は以降、新しい未知のデータに遭遇した時にも、この属性チェックの手順と判断を実施することとなる。”(前掲書27頁)

時間的推論による学習を一切せずに、分類だけする確率情報エントロピーに基づくID3は、その分類作業を外延化して未知のデータにそのままの手順と判断を適用すると、誤りに陥る事を、この1990年代に私が書いた著書の中に有る実例を以って示そう。

引用を続けよう。
“いったん学習が終わり決定木が作られると、こどはテストの段階に入る。前述の8つのデータに欠けているサンプルは
9高、赤、茶 採用
10低、赤、青 採用
11低、赤、茶 採用
12低、暗、茶 不採用
の4つであり、そのそれぞれをID3は右記のように分類することは決定木と比べればすぐ分かるであろう。”(前掲書27頁)

この結論は果たして正しいか?!!
最初の8つの入力データと比較して頂きたい。最初の8つの入力データを見れば一目瞭然の事であるが、目の色が茶色の3,5,6番の三人の応募者は全員不採用になっている。にも拘らず、上記9番、11番の茶色い目をした応募者二人が“採用”と判断されてしまっている。分類しかせず学習しない推論が硬直化したID3は、たった一人の髪の色が赤で採用されたサンプルを盾に、9,10,11番のように髪の色が赤の応募者を全員無条件で採用としてしまう誤りに陥っている。3人もの目の色が茶色の応募者が全員不採用になっている事は、たった一人髪の色が赤い応募者が採用された事よりも重視されるべき事であった。

これは確率論という誤った数学に基づいた人為的情報エントロピーを実際の応募者データだけを基に即最も大きく減らす事が出来る属性“髪の色”から手順を始めた事が、この誤りをもたらしている。

では正しい物理学=スミルノフ物理学の「自然な情報エントロピー」の定義を述べ、この「自然な情報エントロピー」は時間的推論も含む学習をし、分類しかせず学習をしない人為的確率情報エントロピーが陥った上述の誤った判断を避ける事が出来る事を具体的に示そう。

スミルノフ物理学は物理世界とも矛盾しない「自然な情報エントロピー」を如何に定義するかを以下に説明しよう。

スミルノフ物理学は物理世界のエントロピーをニュートンの動的作用反作用の方程式
F_1∙v_1=-F_2∙v_2
から
S=ln⁡⌊v_2/v_1 ⌋
のように定義した。例えば光が屈折率の高い物質にぶつかった時、速度が減じて、つまり|v_1 |>|v_2 |、S=ln⁡⌊v_2/v_1 ⌋<0
負のエントロピーとなると、|F_1 |<|F_2 |となってエネルギーの集中、つまりエントロピーの減少=反エントロピーが起こり、
|v_1 |<|v_2 |、S=ln⁡⌊v_2/v_1 ⌋>0
つまり正のエントロピーとなると、|F_1 |>|F_2 |となってエネルギーの分散、つまりエントロピーの増大が起こる。
速度が速いと、その瞬間速度の描く距離に渡ってエネルギーが引き延ばされるためにエネルギーの分散が起こり、速度が遅いと、その瞬間速度の描く短い距離にエネルギーが集中するからである。

スミルノフ物理学は物理世界とも矛盾しない「自然な情報エントロピー」を次のように定義する。或る年の生物の雌雄の比率を基に翌年に発生する雌雄の比率をシミュレートするロジスティックス漸化式 [註]
Z_(i+1)=4∙Z_i (1-Z_i ) (0’)
(0から
Z_(i+1)/Z_i =4(1-Z_i )
S=ln〖Z_ i /Z_ (i+1) 〗 (1’)

を「自然な情報エントロピー」と定義する。底が2の常用対数logを使わず、底がeの自然対数を使っている事にも注意を要する。
|Z_i |<|Z_(i+1) |、S=ln Z_i/Z_(i+1)<0 反エントロピー
|Z_i |>|Z_(i+1) |、S=ln Z_i/Z_(i+1)>0 エントロピー増大

先の化粧品会社の社長の秘書の募集の例にこの「自然な情報エントロピー」を適用して論じよう。

まず、3つの属性:背丈、髪の色、目の色のそれぞれの分岐数が2、3,2だから、全部で2∙3∙2=12通りのサンプルが有る筈だが、実際に応募してきたのはその中の8通りだけである。
正確には学習作業以前の入力に対する出力の対応を表から見た場合に予想される時間的に次の時刻(学習が完了した時の時刻)の情報量は、ロジスティックス漸化式が時系列を表す漸化式であるために、入力データ8人の中、3人が採用され、5人が不採用となった出力データの対応と、未知の応募者4名のデータを配慮して(ここでは未知の応募者は半分が採用されると仮定する。)
4∙(5+2)/12∙(1-(5+2)/12)=(7∙∙5)/36=35/36
(5+2)/12∙35/36+(3+2)/12∙35/36=35/36 ビット (2’)
となる。

次に、例えば背丈の属性が「高い、低い」により、どのくらいの情報量、つまりエントロピー減少をもたらすかを計算する。背丈が高いというクラス分岐は未知の応募者まで含めると
4∙(2+0.5)/(5+1)∙(1-(2+0.5)/(5+1))=(4∙2.5∙3.5)/36=35/36 ビット (3’)
となり、背丈が低いというクラス分岐は、
4∙(1+1.5)/(3+3)∙(1-(1+1.5)/(3+3))=(4∙2.5∙3.5)/36=35/36 ビット (4’)
となる。ここで(2+0.5)/(5+1)とか(1+1.5)/(3+3)のような数が、例えば背丈が高いというクラスのエントロピー計算に何故現れるかというと、この背丈が高いクラスの総数は1,2,5,6,7番の5人だから、分母が5となるサンプルの範囲内で、採用不採用の出現頻度がそれぞれ2と7番の2つと、1,5,7番の3つであるとデータでなっているからであり、それに未来の応募者4名の中に背丈が高い1名と、低い3名を考慮したためである。
こうしたうえで、その35/36と35/36を未知の応募者まで含めた総数12名に占める背丈が高いサンプル数と背丈が低いサンプル数3の出現頻度の重みを掛けて和をとる、すなわち
(5+1)/12∙35/36+(3+3)/12∙35/36=12/12∙35/36=35/36 ビット (5’)
これが先に計算した全サンプルの15/16に比べて、
35/36-35/36=0 ビット (6’)
と計算されることにより、背丈属性チェックによる獲得情報量が0ビットである事が分かった。

同様にして髪の色の属性が「暗色、赤、ブロンド」により、どれくらいの情報量、つまりエントロピー減少をもたらすかを計算する。暗色は1,4,6番の三人が居て全員不採用だが、未知の応募者が1名髪が暗色なので、
4∙1/4∙(1-1/4)=3/4 ビット (7’)
赤は2番だけで採用になっているが、未知の応募者に赤髪が3名いるから、
4∙(1+1.5)/4∙(1-(1+1.5)/4)=15/16 ビット (8’)
ブロンドは二人採用、二人不採用で、未知の応募者にブロンドは居ないから
4∙2/4∙(1-2/4)=1 ビット (9’)
よって髪の色の属性チェックのエントロピー量は
((3+1)/12)∙3/4+((1+3)/12)∙15/16+(4/12)∙1=4/12∙(12+15+16)/16=1/3∙43/16=43/48 ビット (10’)
で、テスト前[分類作業前の入力データ8人に対する出力データ採用3人、不採用5人の表面データ]に比しての髪の色チェックによる獲得情報量は
35/36-43/48=(35∙4-43∙3)/144=(140-129)/144=11/144と ビット (11’) となる。

同様なエントロピー計算を目の色について行うと、青色は2人不採用3人採用、茶色は3人全員不採用である事実と未来の応募者全4名の中、目が青いのが2名、目が茶色のが2名居る事を使って、
青色: 4∙(2+1)/(5+2)∙(1-(2+1)/(5+2))=(4∙3∙4)/49=48/49 ビット (12’)
茶色: 4∙(0+1)/(3+2)∙(1-(0+1)/(3+2))=(4∙2∙4)/25=32/49 ビット (13’)
目の色のエントロピー量
(5+2)/12∙48/49+(3+2)/12∙32/49=(336+160)/588=496/588=124/147 ビット (14’)
よって目の色のチェックによる獲得情報量は
35/36-124/147=(5145-4464)/5292=681/5292=227/1764 ビット (15’)

背丈の獲得情報量は0、髪の色の獲得情報量は11/144≅0.076、目の色の情報獲得量は227/1764≅0.129であり、未知の応募者まで含めて考えると11/144<227/1764 で目の色による情報獲得量の方が髪の色の獲得情報量より大きいので、目の色のチェックの方を、髪の色のチェックに優先させる。これは、未来の応募者4名の中の3名までもが髪の色属性の3つの中の1つの分岐の髪の色が赤の属性を持っている筈であり、その3+1=4名の赤髪の中の1名しか実際の応募者のサンプルの中には現れていないのに、その1名が採用された事だけをもって、赤髪なら全て採用されると結論付ける事の危うさを時間的学習をする“自然な情報エントロピー”は考慮するからである。その結果、未来でない現在実際に応募した応募者だけに付き決定木を完成させるのに要するチェック数において、目の色属性のチェックを先にした場合(8個のチェック数)と、髪の色属性のチェックを先にした場合(8個のチェック数)と、同等の手間がかかるのでは有るが、実際の応募者達についての情報エントロピー計算を単なる分類処理に止めず、未来データにも対応できる学習結果とする為にはロジスティックス漸化式情報エントロピーを使い、目の色属性のチェックを髪の色属性のチェックよりも優先させる事となる。

目の色、次に髪の色の二つの属性だけをこの順番にチェックしさえすれば、採用不採用を判断し切る事が出来る事が、以上の「自然な情報エントロピー」の計算で明らかとなったので、その手順で創った決定木は図aとは違った構造の図bのように成る。

   目の色
茶色
青色
3低、ブロンド、茶:不採
  5高、ブロンド、茶:不採 髪の色
  6高、暗、茶:不採   赤
  (9高、赤、茶:不採)  暗色 ブロンド 2高、赤、青:採用
 (11低、赤、茶:不採)     (10低、赤、青:採用)
 (12低、暗、茶:不採)  7高、ブロンド、青:採用
  1高、暗、青:不採 8低、ブロンド、青:採用
          4低、暗、青:不採

図b:自然な情報エントロピーにより学習された決定木
(カッコ内は未来の応募者であり、図aと違って誤った振り付けが為されていない事に注意)
 
図aを作った確率情報エントロピーは確率論であるために実際の入力データと出力データだけが処理対象であって、途中の処理プロセスはどうでもよい事であり、他にも有り得る種類の入力データではあるが実際には入力データの中には現れなかった未来のデータは現時点のサンプルを処理するときには考慮せず、現時点のサンプルの処理だけを基に確立した分類を先に作っておいてから、未知データについては学ぶ事をしないまま単に“検証する”為だけにその分類システムを未知データに後で適用する手順を取る。そうすると先にも述べたように、未知の応募者が将来、応募した時、茶髪であるために採用される筈がなかった9,11番の応募者を赤髪である事を理由に間違えて採用してしまう事が生じる。間違えて採用してしまっているのに、確率情報エントロピーでは“検証”の際に、その間違いに気付かないままとなる。つまり確率情報エントロピーは学習せずに只分類しているだけである。

このように、1名のサンプルだけを以って、赤髪なら全員採用する、と判断した確率情報エントロピーのID3の誤りを、ロジスティックス漸化式に基づく“自然な情報エントロピー”は暴く事となった。

[註]:以上、“自然なエントロピー”の定義をロジスティックス漸化式
Z_(i+1)=4∙Z_i (1-Z_i ) (0’)
(0から
Z_(i+1)/Z_i =4(1-Z_i )
S=ln⁡〖Z_(i+1)/Z_i 〗 
のように定義したのであったが、これには基礎的物理学的根拠、数学的根拠が有る事を以下に示そう。
正にニュートンの動的作用反作用の公理の方程式の相対論的バージョンである“転がり速度運動量不変の法則”の方程式
m(c-v)=m_0 c
m (c-v)/c=m_0
m(1-v/c)=m_0
m v/c (1-v/c)=m_0 v/c
Z=v/c と置くと
m∙Z∙(1-Z)=m_0 Z
m_0 Z=m∙Z∙(1-Z)
Z=m/m_0 ∙Z∙(1-Z)
ここで決定論的1次元カオスが減衰する事無く無限に続く為に
m/m_0 =4
と置き
Z=4∙Z∙(1-Z) 
とする。ここでも情報エントロピーの基本的定義式がニュートンの動的作用反作用の公理から導き出されている事に注意を要する。

そして最初の
m(c-v)=m_0 c 
の式が表す質量粒子とエーテルとの作用反作用は、
m(c-v)←m_0 c 
右辺のエーテル側から質量粒子に向けて負の時間軸に基づき作用が発されており、これが因果の連鎖として他の質量粒子にも作用反作用が及ぶので、正の世界に於ける推論学習に於いては時系列順に添え字番号をふると、
Z_(i+1)=4∙Z_i∙(1-Z_i ) (0’)
となり、本文の(0’)のロジスティックス漸化式の定義式が導かれる。

更にこのロジスティックス漸化式は素数の並びにも直結している。整数値整数論の基礎定理である「素数定理」その物
π(n)=n/ln⁡n
から、
π(n)/n=1/ln⁡n
1-π(n)/n=1-1/ln⁡n
π(n)/n (1-π(n)/n)=1/ln⁡n (1-1/ln⁡n )
π(n+1)/(n+1)=a(n)∙π(n)/n (1-π(n)/n)=a(n)∙1/ln⁡n (1-1/ln⁡n ) 

このようにスミルノフ物理学・数学・情報理論のどの基礎方程式も整合性を以って一枚岩の論理体系で導く事ができるのは、我々の数理物理学的宇宙がメービウスの構造を持っており、至る所でメービウス変換が成り立つからである。


次回の第9回スミルノフ物理学講座は東京水道橋にて2月27日午後7時~9:30時に開催されます。今回のメイン・テーマは「ひも理論・超弦理論批判」ですが、他にも例えば下記のような皆さんが興味を持っていらっしゃる話題についても、新しい体系のスミルノフ物理学体系から解説します。

御興味の有る方は
http://katakamuna.jp/
のカタカムナ社のHPに入られて、右手に有る「第9回スミルノフ物理学講座」から事前にチケットをお求め下さい。

語学の次回「即聞即答訓練準備講座」は3月中旬に開催予定です。