1. Saver的背景介紹
- Saver類提供了向checkpoints文件保存和從checkpoints文件中恢復變量的相關方法。Checkpoints文件是一個二進制文件,它把變量名映射到對應的tensor值 。
- 只要提供一個計數器,當計數器觸發時,Saver類可以自動的生成checkpoint文件。這讓我們可以在訓練過程中保存多箇中間結果。例如,我們可以保存每一步訓練的結果。
- 爲了避免填滿整個磁盤,Saver可以自動的管理Checkpoints文件。例如,我們可以指定保存最近的N個Checkpoints文件。
- import tensorflow as tf
- import numpy as np
- x = tf.placeholder(tf.float32, shape=[None, 1])
- y = 4 * x + 4
- w = tf.Variable(tf.random_normal([1], -1, 1))
- b = tf.Variable(tf.zeros([1]))
- y_predict = w * x + b
- loss = tf.reduce_mean(tf.square(y - y_predict))
- optimizer = tf.train.GradientDescentOptimizer(0.5)
- train = optimizer.minimize(loss)
- isTrain = False
- train_steps = 100
- checkpoint_steps = 50
- checkpoint_dir = ''
- saver = tf.train.Saver() # defaults to saving all variables - in this case w and b
- x_data = np.reshape(np.random.rand(10).astype(np.float32), (10, 1))
- with tf.Session() as sess:
- sess.run(tf.initialize_all_variables())
- if isTrain:
- for i in xrange(train_steps):
- sess.run(train, feed_dict={x: x_data})
- if (i + 1) % checkpoint_steps == 0:
- saver.save(sess, checkpoint_dir + 'model.ckpt', global_step=i+1)
- else:
- ckpt = tf.train.get_checkpoint_state(checkpoint_dir)
- if ckpt and ckpt.model_checkpoint_path:
- saver.restore(sess, ckpt.model_checkpoint_path)
- else:
- pass
- print(sess.run(w))
- print(sess.run(b))
isTrain:用來區分訓練階段和測試階段,True表示訓練,False表示測試
train_steps:表示訓練的次數,例子中使用100
checkpoint_steps:表示訓練多少次保存一下checkpoints,例子中使用50
checkpoint_dir:表示checkpoints文件的保存路徑,例子中使用當前路徑
2.1 訓練階段
- sess:表示當前會話,當前會話記錄了當前的變量值
- checkpoint_dir + 'model.ckpt':表示存儲的文件名
- global_step:表示當前是第幾步
2.1測試階段
- sess:表示當前會話,之前保存的結果將被加載入這個會話
- ckpt.model_checkpoint_path:表示模型存儲的位置,不需要提供模型的名字,它會去查看checkpoint文件,看看最新的是誰,叫做什麼。