原创 用神經網絡二分類理論重述雙原子化合物的成鍵過程

電子是物質的共有成分,物質的化學性質完全由核外電子決定。 一個化合物的化學性質也當然的僅由核外電子決定,因此核外電子應該攜帶了實現成鍵原子彼此分類的全部信息。 比如Na和Cl成鍵,形成了一個公共的電子對,而這個電子對當然就是電子雲的公共重

原创 用神經網絡分類過去與未來

一個檯球無論在桌子上還是在地上都是檯球,也就是空間位置對臺球的分類屬性沒有影響,檯球的分類屬性對整個空間而言都是對稱的,也就是可分類性是一個與空間位置無關的量。 因而如果用可分類性來描述這個物質世界並不需要一個空間屬性。這樣可以去掉空間的

原创 平均分辨準確率對網絡隱藏層節點數的非線性變化關係03

(0,3)-81*n*2-(1,0)(0,1) 製作一個二分類的網絡分類mnist的0和3,收斂標準1e-6,收斂次數是1999次,隱藏層節點數從3到1000共實驗了79組值。統計每次收斂的迭代次數,觀察分辨準確率和迭代次數對同一收斂標準

原创 到底應該用3*3的卷積核還是5*5的卷積核

本文做了一個二分類網絡 (mnist 0,2)-con(5*5)*n-30*2-(1,0)(0,1) 用一個三層多核的網絡分類mnist0和2,卷積核的數量從1到23,每個收斂標準(也就是輸出值與目標值的餘項或誤差),收斂199次,記錄平

原创 隱藏層節點數對迭代次數分佈規律的影響

製作一個二分類網絡 (mnist 0 ,2)-81*n*2-(1,0)(0,1) 讓n分別等於3,5,10,20,30,40,50,60,70,80,90,100,100,110,120,130, 讓δ=1e-6, ret=0.1,wei

原创 爲什麼分類對象越多訓練時間越長?

這句話也可以表述成爲什麼在訓練時間相同的情況下分類對象越多分類準確率越低, 或者表述成爲什麼在運算量相同的情況下分類對象越多分類準確率越低。   爲解釋這個現象引入三個假設 假設1.在收斂標準相同的情況下,實現收斂的迭代次數越多表明分類對

原创 用中子與質子組成的二分類系統演化對稱性破缺過程

核力具有電荷無關性,質子和質子、中子和中子及質子和中子之間的核力是相同的,這說明就核力的性質而言,質子與中子之間沒有區別 ---百度“同位旋”   如果用質子和中子的波函數做訓練集訓練一個二分類網絡,如果測試集無論用質子的波函數還是中子的

原创 用神經網絡的分類過程理解夸克與反夸克漸近自由的強相互作用過程

現在我們相信假如誰想用力分開一個介子(由一個夸克和一個反夸克組成),隨着夸克和反夸克的分離,需要的力將增大, 最終消耗的能量也爲生成一個新的夸克-反夸克對提供了足夠的能源。 於是,反夸克從真空產生出來,然後跟原來的夸克結合,而夸克也從真空

原创 神經網絡的收斂標準有最優值嗎?

作一個5分類的三層網絡,分類9*9的圖片,收斂標準從0.5到6e-8,共47個收斂標準,每個收斂標準收斂199次,共收斂了47*199次。取平均值統計平均性能pave。觀察pave是如何隨着收斂標準改變的。   得到的表格 f2[0]

原创 用神經網絡分類無理數和超越數2**0.5,3**0.5,e

  製作兩個神經網絡用來分類2**0.5、3**0.5,2**0.5和e。每個無理數取3萬位有效數字,每10個數字變成一張圖片。用前2500張圖片來訓練網絡,用2500-3000張圖片來做測試。 比如2**0.5的第一張圖片 收斂標準

原创 用神經網絡分類奇數和偶數

A:奇數 B:偶數 (A,B)—1*2*2—(1,0)(0,1)   讓A等於5000以內偶數:sigmoid(2n/5000) B等於A+1:sidmoid((2n+1)/5000), 用A,B兩個訓練集訓練網絡,網絡的結構是1*2*2

原创 神經網絡的耦合作用與規範場

磁場對於電流有一個作用力,一個密度爲j的電流具有的相互作用能由下式給出  磁相互作用的能量密度=-j•A A被稱爲失勢 它表明帶電粒子經由矢勢與磁場耦合。這種耦合場就是“規範場”( gauge field)   黃克孫《大自然的基本力

原创 用神經網絡分類裏和外

A:{裏} B:{外} (A,B)—n*m*k—(1,0)(0,1) 區分裏和外的前提是至少有一個無法區分裏和外的物理環境,也就是這個環境中只有一個面,這個面即是裏面也是外面。所以自然界中有無法區分裏和外的環境嗎? 顯然有,比如莫比烏斯曲

原创 實驗:3*3卷積核10分類9*9圖片卷積核數量最優值

(0,1,2,3,4,5,6,7,8,9)--con(3*3)*n—49*n*30*10 將mnist的圖片用間隔取點的辦法處理成9*9,用3*3的卷積核,卷積核的數量從1個到57個,收斂標準是1e-4,每個收斂標準收斂199次取平均值,

原创 分類9個無理數並比較他們之間的分佈差異

(2**0.5,3**0.5)—100*10*2—(1,0)(0,1) (2**0.5,5**0.5)—100*10*2—(1,0)(0,1) (2**0.5,e)—100*10*2—(1,0)(0,1) (2**0.5,pi)—100*