原创 PriorityQueue(優先隊列)
https://blog.csdn.net/beilunc7/article/details/100177375 能夠完成下列操作的數據結構叫做優先隊列: 1、插入一個數值。 2、取出最小(最大)的數值(獲得數值,並且刪除)。 能夠使用二
原创 keras 循環神經網路 return_sequences和return_state
RNN 我一直以爲循環神經網絡的輸出是上邊的y,實際上輸出的是a keras 的SimpleRNN keras.layers.SimpleRNN(units, activation='tanh', use_bias=True, ker
原创 tensorflow 2.x 修改tensor中某些元素
tensorflow中直接使用下標賦值會報錯誤。 如下代碼: tensor_input = tf.constant([i for i in range(20)], tf.float32) tensor_input = tf.reshape
原创 np.random.permutation()解析
https://blog.csdn.net/weixin_44188264/article/details/93752505 np.random.permutation():隨機排列序列。 例1:對0-5之間的序列進行隨機排序 例2:對
原创 keras LearningRateScheduler 使用
keras.callbacks.LearningRateScheduler(schedule, verbose=0) 參數 schedule: 一個函數,接受epoch作爲輸入(整數,從 0 開始迭代) 然後返回一個學習速率作爲輸出(浮點
原创 Johnson's SU-distribution
from https://en.wikipedia.org/wiki/Johnson%27s_SU-distribution#opennewwindow 1 公式 實際就是z(x)=... 假設U是一個隨機變量,服從於[0, 1]之間
原创 關於GPT2Tokenizer的一些發現
在使用transformers裏的GPT2Tokenizer時,看到一句話: GPT-2 BPE tokenizer. Peculiarities: Byte-level Byte-Pair-Encoding Requires
原创 關於Pytorch中detach
1 首先沒有detach的情況 定義了一系列操作,如下,中間結點y1和y2沒有梯度。沒有采取detach。 import torch w1 = torch.tensor([2.], requires_grad=True) # prin
原创 Pytorch | 自動求導機制下tensor的各個屬性
from https://www.jianshu.com/p/96a687ecbac4 grad 該屬性值默認爲None,在第一次調用backward()方法後,該值會附上一個數值,並且grad屬性值會在之後的每次調用backward
原创 heapq模塊中的兩個函數——nlargest()和nsmallest()
https://blog.csdn.net/qq_37119902/article/details/79471521 這兩個函數可以幫助我們在某個集合中找出最大或最小的N個元素。例如: >>> import heapq >>> nums=
原创 tensorflow 製作mask lm數據
採用一種簡單的方式,截取每個樣本前512個字符。隨機mask一些詞,其中80%被mask掉的詞使用特殊符號代替,如[MASK],10%使用隨機詞替代,10%使用原本的詞替代。參考transformers開源代碼,如下: def mask
原创 tf.keras.losses.sparse_categorical_crossentropy和tf.keras.losses.SparseCategoricalCrossentropy
1 tf.keras.losses.sparse_categorical_crossentropy 是一個函數。 返回每個樣本的損失。 等價於: tf.keras.backend.sparse_categorical_crossentr
原创 Fields with a default value must come after any fields without a default.
排錯Fields with a default value must come after any fields without a default. 原始程序: @dataclass class DataTrainingArgume
原创 transformers學習1 quickstart
https://github.com/huggingface/transformers 1 BERT example BertTokenizer.from_pretrained:Instantiate a :class:`~transfo
原创 Transformers 之Glossary(術語)
https://huggingface.co/transformers/glossary.html 1 Input IDs 模型的輸入,爲序列經過tokenize之後的數字表示。推薦使用encode 或encode_plus方法。這兩個方