原创 Python導入CRFPP接口遇到的問題

在NLP分詞操作中最給力的工具當屬CRF++,首先這款工具是基於C++實現的。所以就得先檢查一下自己的VisualStudio是否完好,是否還可以用。當然最好升級到2015以上版本,效果最佳! 分享一個不錯的CRF++地址:https:/

原创 解決.condarc文件找不到的問題

在創建conda環境的時候,需要修改condarc文件的內容。一開始怎麼也找不到.condarc文件,系統提示也是無法找到該文件。通過查找資源,發現原來.condarc默認是不會自動創建的,只有當用戶第一次使用conda config命令

原创 解決tf2.0報錯:InvalidArgumentError: In[0] is not a matrix. Instead it has shape [4]

搞了好久,作爲一次記錄 當出現not a matrix時,考慮是否添加了batch_size。。   上圖爲報錯的具體代碼 ,下圖爲修改之後的代碼: 核心就是後邊添加了batch這一操作,問題順利解決~~ 

原创 解決tf2.0中model.save()保存pb模型時cannot be saved because the input shapes have not been set.的報錯

在進行保存模型時,TF2.0有三種保存方式,分別是model.save_weights('filepath');model.save('filepath',save_format='tf');tf.saved_model.save(mod

原创 垃圾郵件分類的各種嘗試(深度學習篇)【附代碼】

垃圾郵件分類的各種嘗試(深度學習篇) 文章目錄垃圾郵件分類的各種嘗試(深度學習篇)數據集格式清洗數據集使用深度學習的方法GloVe + LSTM1. 讀取數據2. 加載GloVe詞向量3. 搭建網絡整體結構4. 設置訓練參數5.

原创 垃圾郵件分類的各種嘗試(機器學習篇)

文章目錄數據集格式清洗數據集- 去掉停用詞- 去掉URL- 去掉HTML標籤- 去掉表情符號- 去掉特殊符號使用機器學習的方法樸素貝葉斯、SVM1.1 讀取數據1.2 構造詞頻矩陣1.3 訓練並預測1.4 利用其它特徵(TF-ID

原创 解決conda update -n base -c defaults conda報錯問題

今天突然想安裝pandas庫,之前在pycharm上直接install就完事了。但是今天,報錯了~~~~~ 很明顯,需要升級conda版本,升級到4.8.3版本。conda也提示了,需要執行conda update -n base -c

原创 解決can't pickle generator objects問題

最近在學習用BERT去做NER任務,利用經典模型BERT+BiLSTM+CRF。通過看源碼,發現了estimator這個高級的API,通過修改estimator的tf.contrib.tpu.TPUEstimatorSpec來將CRF_d

原创 解決MySQL -1251 client does not support authentication...問題

打開之前安裝好的Navicat,點擊連接數據庫突然報錯。 原本以爲要我更新MySQL,其實並不然;通過廣泛搜索,終於找到正確的解決方法。我會在文章最後放出鏈接滴~接下來,進入正題。 問題的最終原因是沒有改變MySQL本地連接時的密碼屬性

原创 解決tensorflow.keras無法引入layers問題

最近想學習一下Keras,利用Conda創建的TensorFlow2.0環境開始進入Keras。剛開始搭建網絡,TensorFlow2.0推薦使用Keras來構建網絡結構。但是當我根據教程引入Keras時顯示沒有這個庫。。具體是這樣敲的。

原创 解決conda創建的環境中TensorFlow前後版本不一致問題

最近在學conda創建環境,來管理python不同版本的問題。conda的原理及好處就不介紹了。在學習的過程中發現,使用命令: conda create -n tf15 tensorflow=1.15.0 問題描述 創建完成後,顯示py

原创 Linux Makefile編程

原文鏈接:點擊打開鏈接https://blog.csdn.net/liang13664759/article/details/1771246            最近在學習Linux下的C編程,買了一本叫《Linux環境下的C編程指

原创 pySpark讀寫CSV文件、查重並寫入CSV文件中

前段時間在研究 pySpark 數據處理,深刻地感受到spark的極大魅力。自己是一個初學者,這篇博客也只是簡單的完成了幾個簡單的工作任務,哈哈@@不說了上代碼: from pyspark import SparkConf,SparkCo