原创 web測試題(第二章)

第二章 1. 在MVC模式中,M是指Model(模型),V是指View(視圖),C是指Controller(控制器)。 2. 請簡述MVC的特點。 多個視圖可以對應一個模型。 模型返回的數據與顯示邏輯分離。 應用被分割爲3層,降

原创 Tensorflow學習(8)-通過MNIST數字識別問題學習(2)-變量管理

在Tensorflow學習(7)-通過MNIST數字識別問題學習(1)中,將計算神經網絡前向傳播結果的過程抽象成了一個函數。 即 def inference(input_tensor, avg_class, weights1, bias

原创 Tensorflow學習(2)-實現神經網絡

神經網絡的前向傳播過程在計算中表示爲矩陣相乘的過程 具體內容在書上3.4.2 實現神經網絡的前向傳播過程 輸入層兩個節點,隱藏層3個,輸出層一個 # 聲明w1,w2兩個變量,通過seed參數設定隨機種子,保證每次運行結果一樣 # std

原创 Tensorflow學習(3)-損失函數

激活函數去線性化 常用的有tf.nn.relu、tf.sigmoid(0~1)、tf.tanh(-1~1)。 經典損失函數-分類問題(交叉熵cross entropy) cross_entropy = -tf.reduce_mean(y

原创 Tensorflow學習(6)-神經網絡進一步優化(滑動平均模型)

滑動平均模型 TensorFlow中提供了tf.train.ExponentialMovingAverage來實現滑動平均模型。 在初始化ExponentialMovingAverage時,需要提供一個衰減率(decay)。這個衰減率用於

原创 計算機組成原理-選擇題錯題

計算機組成原理試題(一) 1.零地址運算指令在指令格式中不給出操作數地址,它的操作數來自_____。 A.立即數和棧頂;B.暫存器;C.棧頂和次棧頂; D.累加器。 2.______可區分存儲單元中存放的是指令還是數據。 A.存儲器;B.

原创 Tensorflow學習(7)-通過MNIST數字識別問題學習(1)

MNIST數據處理 TensorFlow提供了一個類來處理MNIST數據,可以下載並自動轉換格式。 下面給出樣例程序 from tensorflow.examples.tutorials.mnist import input_data

原创 Tensorflow學習(9)-通過MNIST數字識別問題學習(3)- 模型持久化

持久化代碼實現 TensorFlow提供了一個非常簡單的API來保存和還原一個神經網絡模型。這個API是tf.train.Saver類。 以下代碼給出保存TensorFlow計算圖的方法。 import tensorflow as tf

原创 Tensorflow學習(4)-Tensorflow中實現神經網絡的訓練過程的大致框架

import tensorflow as tf batch_size = n # 2是輸出節點的個數 x = tf.placeholder(tf.float32, shape=[batch_size, 2], name='x-inpu

原创 路由過程實例

注意這裏MAC地址直接設爲全1.因爲是串行連接發送     

原创 計算機組成原理-選擇題,簡答題整理

馮·諾依曼型計算機的基本特點是什麼? 答:馮•諾依曼原理的基本思想是: (1)採用二進制形式表示數據和指令。指令由操作碼和地址碼組成。 (2)將程序和數據存放在存儲器中,使計算機在工作時從存儲器取出指令加以執行,自動完成計算任務。這就是“

原创 web測試題(第四章)

1. Spring表單標籤庫的實現類在  spring-webmvc.jar      中。這個庫的描述文件是 spring-form.tld   。要使用這個庫中的標籤,必須在JSP頁面的開頭加入聲明:    <%@ taglib pr

原创 Tensorflow學習(5)-神經網絡進一步優化(學習率、過擬合問題)

學習率的設置  tf.train.exponential_decay()函數會指數級的減小學習率,使得模型在訓練後期更加穩定。 它實現了以下代碼的功能 decayed_learning_rate = learning_rate * de

原创 Tensorflow學習(1)-計算圖的使用,會話

計算圖 計算圖是Tensorflow值最基本的一個概念,Tensorflow中所有計算都會轉化爲計算圖上的節點。Tensorflow會自動生成一個默認的計算圖。 不同計算圖上的張量和運算都不會共享,在以下代碼中示意瞭如何在不同計算圖上定義

原创 學習過程中偶爾見到的一些小知識,記錄下來。

全連接神經網絡稱爲全連接神經網絡是因爲相鄰兩層之間任意兩個節點之間都有連接。 tf.assign(w1,w2),把w2賦值給w1 設置參數validata_data=False可以改變變量的維度。 (很不清楚的知識,使用很罕見,只是留個印