原创 Tensorflow:tf.contrib.lookup索引構建和查詢

ndex_to_string_table_from_file和index_table_from_file py3。從文件中構建int->string映射和string->int映射,分別返回tf.contrib.lookup.HashTa

原创 Tensorflow:常見錯誤

  Tensorflow SSE報錯 TensorFlow wasn't compiled to use SSE (etc.) instructions, but these are available 解決:os.environ['TF

原创 Tensorflow:seed用法詳解

  ##### file1 ##### import tensorflow as tf # tf.set_random_seed(1234) # a = tf.Variable(tf.random_uniform([2, 2], 0,

原创 Tensorflow:輸入輸出

Tensorflow輸入 使用dataset讀取batch數據示例 DEBUG = True mlb = MultiLabelBinarizer() with open(os.path.join(DATADIR, 'vocab.tag

原创 PyTorch:安裝和配置

安裝 pip安裝 pip3 install torch torchvision macos還需要安裝 brew install libomp 否則出錯:ImportError: dlopen(/...torch/_C.cpython-36

原创 Tensorflow:模型保存和服務

tensorflow模型保存和使用 保存訓練好的模型的代碼如下: sess = tf.Session() saver = tf.train.Saver() model_path = "D:\sample\model.ckpt" save

原创 深度學習:bert embedding用法詳解

  環境配置 下載bert已訓練好的模型 如BERT-Base, Chinese: Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M para

原创 Tensorflow函數映射:py_func和map_fn

tf.map_fn [tf.map_fn]:map on the list of tensors unpacked from elems on dimension 0. 接受一個函數對象,然後用該函數對象對集合(elems)中的每一個元素

原创 Tensorflow:tensor變換

  示例 import tensorflow as tf x = tf.constant([[[1, 2, 3], [4, 5, 6]], [[7, 8, 9],

原创 python字符串編碼及亂碼解決方案

http://blog.csdn.net/pipisorry/article/details/44136297 字符編碼詳解 [字符編碼ASCII,Unicode和UTF-8] 主要非英文字符集的編碼範圍 範圍 編碼 說明 2E80~33

原创 正則表達式

http://blog.csdn.net/pipisorry/article/details/24143801 正則表達式 正則表達式是用於處理字符串的強大工具,擁有自己獨特的語法以及一個獨立的處理引擎,效率上可能不如str自帶的方法,但

原创 mac:文件編碼問題

Office for Mac 打開 Excel 文件全是亂碼? 原因:Mac默認的編碼是utf-8,utf-8編碼的文件,用utf-8解碼纔會正確顯示。而Mac下的excel並不支持utf-8,一般支持GBK編碼的文件,用GBK解碼utf

原创 深度學習:Transformer模型進階-GPT模型和Bert模型

  OpenAI GPT 模型原理與架構 原文[Improving Language Understanding by Generative Pre-Training (未出版)]         OpenAI Transformer是一

原创 深度學習:TextCNN

          對於文本分類問題,常見的方法無非就是抽取文本的特徵,比如使用doc2evc或者LDA模型將文本轉換成一個固定維度的特徵向量,然後在基於抽取的特徵訓練一個分類器。 然而研究證明,TextCnn在文本分類問題上有着更加卓越

原创 深度學習:transformer模型

Google於2017年6月發佈在arxiv上的一篇文章《Attention is all you need》,提出解決sequence to sequence問題的transformer模型,用全attention的結構代替了lstm,