原创 NLP實踐-Task1

對cnews數據做一些數據處理 import jieba import pandas as pd import tensorflow as tf from collections import Counter from gensim.m

原创 pytorch-task2

numpy實現梯度下降 x = 1 learning_rate = 0.1 epochs = 50 y = lambda x : x ** 2 - 1 for epoch in range(epochs): print(epo

原创 pytorch-task4

import os import csv import jieba import warnings import numpy as np import pandas as pd from tqdm import tqdm from ge

原创 pytorch-task3

pytorch實現邏輯迴歸 import torch import torch.nn as nn from torch.optim import SGD class LR(nn.Module): def __init__(se

原创 數據競賽 Task2

TF-IDF,即“詞頻-逆文本頻率”。它由兩部分組成,TF和IDF。 TF就是詞頻,我們之前做的向量化也就是做了文本中各個詞的出現頻率統計,並作爲文本特徵。 IDF反應了一個詞在所有文本中出現的頻率,如果一個詞在很多的文本中出現,那麼它的

原创 數據競賽 Task1

數據: train_set.csv:此數據集用於訓練模型,每一行對應一篇文章。文章分別在“字”和“詞”的級別上做了脫敏處理。共有四列: 第一列是文章的索引(id),第二列是文章正文在“字”級別上的表示,即字符相隔正文(article);第

原创 NLP實踐-Task10

1.transformer                                                                                    圖一、The Transformer Ar

原创 NLP實踐-Task9

1.Encoder-Decoder框架 要了解深度學習中的注意力模型,就不得不先談Encoder-Decoder框架,因爲目前大多數注意力模型附着在Encoder-Decoder框架下,當然,其實注意力模型可以看作一種通用的思想,本身並不

原创 NLP實踐-Task8

1.RNN RNNs的目的使用來處理序列數據。在傳統的神經網絡模型中,是從輸入層到隱含層再到輸出層,層與層之間是全連接的,每層之間的節點是無連接的。但是這種普通的神經網絡對於很多問題卻無能無力。例如,你要預測句子的下一個單詞是什麼,一般需

原创 NLP實踐-Task7

任務鏈接:https://wx.zsxq.com/dweb/#/index/222248424811 1.卷積 參考鏈接:https://zhuanlan.zhihu.com/p/57575810 1.1卷積 卷積:圖像中不同數據窗口的數

原创 NLP實踐-Task6

任務鏈接:https://wx.zsxq.com/dweb/#/index/222248424811 1.one-hot one-hot編碼(獨熱編碼)用來解決類別型數據的離散值問題 import pandas as pd from s

原创 NLP實踐-Task5

任務鏈接:https://wx.zsxq.com/dweb/#/index/222248424811 深度學習視頻推薦1:https://www.icourse163.org/learn/PKU-1002536002?tid=100379

原创 NLP實踐-Task4

1.樸素貝葉斯 樸素貝葉斯參考鏈接:https://blog.csdn.net/qq_27009517/article/details/80044431 代碼樣例: import numpy as np from sklearn imp

原创 NLP實踐-Task3

1.TF-IDF TF-IDF參考鏈接:https://www.cnblogs.com/pinard/p/6693230.html from sklearn.feature_extraction.text import TfidfVec

原创 NLP實踐-Task2

任務鏈接:https://wx.zsxq.com/dweb/#/index/222248424811 1.基本文本處理技能 1.1分詞的概念(分詞的正向最大、逆向最大、雙向最大匹配法) 正向最大匹配法:對句子從左到右進行掃描,儘可能地選擇