天才一秒記住【閃文書庫】地址:www.shanwen.tw
2時,關於x,y,z的不定方程 x^n + y^n = z^n 無正整數解。哥德巴赫猜想內容:任一大於2的整數都可寫成三個質數之和。這和房子上的數字能對應上嗎?”
展顧約說:“不知道是怎麼對應。也對應不上吧?但是真的感覺他們是在進行某項數學問題的研究。”
董趨說:“也許是某種神經網路呢?”
神經網路無需事先確定輸入輸出之間對映關係的數學方程,僅透過自身的訓練,學習某種規則,在給定輸入值時得到最接近期望輸出值的結果。BP神經網路是一種按誤差反向傳播訓練的多層前饋網路,這種演算法稱為BP演算法,它的基本思想是梯度下降法,利用梯度搜尋技術,使網路的實際輸出值和期望輸出值的誤差均方差為最小。
基本BP演算法包括訊號的前向傳播和誤差的反向傳播兩個過程。計算誤差輸出時按從輸入到輸出的方向進行,而調整權值和閾值則從輸出到輸入的方向進行。正向傳播時,輸入訊號透過隱含層作用於輸出節點,經過非線性變換,產生輸出訊號,如果實際輸出與期望輸出不相符,就進入誤差的反向傳播過程。誤差反傳是將輸出誤差透過隱含層向輸入層逐層反傳,並將誤差分攤給各層所有單元,以從各層獲得的誤差訊號作為調整各單元權值的依據。透過調整輸入節點與隱層節點的聯接強度和隱層節點與輸出節點的權值以及閾值,使誤差沿梯度方向下降,經過反覆學習訓練,確定與最小誤差相對應的網路引數權值和閾值,訓練即停止。此時經過訓練的神經網路,對類似的輸入資訊,能處理輸出誤差最小的經過轉換的資訊。
展顧約說:“那麼,他交過去的資訊裡,包含的數字是什麼,是權值和閾值嗎?”
董趨說:“可能是的。”
他們繞過這些平房,沿著石板路,繼續向前走。走到一個商鋪,看幾個人在研究模型。
一個個類似小房子,有不同的屋頂。他們把屋頂去掉,裝入沙子,又把沙子放入量器,看體積是多少。旁邊有個石頭做的桌子,其他是普通木頭桌子。
董趨說:“我想起來,好像是建三維數學模型時遇到這些模型。”
展顧約說:“計算體積,不規則形狀的體積。你看這是用到積分計算吧?”
對於一個給定的正實值函式,在一個實數區間上的定積分可以理解為在座標平面上,由曲線、直線以及軸圍成的曲邊梯形的面積值,一種確定的實數值。
小主,這個章節後面還有哦,請點
本章未完,請點選下一章繼續閱讀!若瀏覽器顯示沒有新章節了,請嘗試點選右上角↗️或右下角↘️的選單,退出閱讀模式即可,謝謝!