原创 對比梯度下降和正規方程解性能

現在用導數的方式模擬線性迴歸中的梯度下降法 首先再來回顧一下梯度下降法的基礎 梯度下降法不是一個機器學習算法, 而是一個搜索算法 梯度下降法用在監督學習中 梯度下降法的過程: 對比模型輸出值和樣本值的差異不斷調整本省權重, 直到

原创 leetCode 349號題目詳解 兩個數組的交集 ,python3兩種方式實現, 複雜度分別爲O(n^2) 和 O(n)

給定兩個數組,編寫一個函數來計算它們的交集。 示例 1: 輸入: nums1 = [1,2,2,1], nums2 = [2,2] 輸出: [2] 示例 2: 輸入: nums1 = [4,9,5], nums2 = [9,4,9

原创 leetCode 1號題詳解, 兩數之和的key , python3三種方法實現

原題如下 給定一個整數數組和一個目標值,找出數組中和爲目標值的兩個數。 你可以假設每個輸入只對應一種答案,且同樣的元素不能被重複利用。 示例: 給定 nums = [2, 7, 11, 15], target = 9 因爲 nu

原创 斯坦福cs224n教程--- 學習筆記2-11

一、每週學習時間安排 每週具體學習時間劃分爲4個部分: · 1部分安排週一到週二 · 2部分安排在週四到週五 · 3部分安排在週日 · 4部分作業是本週任何時候空餘時間 · 週日晚上提

原创 sklearn 中的GridSearchCV網格搜索

sklearn 中的網格搜索 同樣的以kNN算法距離, 其中kNN中的k取值直接影響了結果的準確率, 在調參過程中, 網格搜索是常用的方式之一 先看一下常規代碼: import numpy as np from sklearn i

原创 KNN算法

KNN算法 KNN算法是機器學習算法中的一個很特殊算法 角度1: knn算法不用fit操作就能直接預測 角度2: knn的數據集其實就直接是fit後的結果, 可以直接預測數據 先手動實現一個knn import numpy a

原创 實現sklearn中的train_test_split測試集訓練集拆分

實現sklearn中的train_test_split sklearn.model_selection裏面有個方法-> train_test_split 其作用是把數據集按訓練集和測試集拆分, 爲後面做調參(煉丹)做準備 先看下s

原创 斯坦福cs224n教程--- 學習筆記1

一、前言 自然語言是人類智慧的結晶,自然語言處理是人工智能中最爲困難的問題之一,而對自然語言處理的研究也是充滿魅力和挑戰的。 通過經典的斯坦福cs224n教程,讓我們一起和自然語言處理共舞!也希望大家能夠在NLP領域有所成就!   二、先

原创 python3實現softmax + 函數曲線繪製

python3實現softmax + 函數曲線繪製 import numpy as np # 實現方法1 def softmax(x): return np.exp(x)/np.sum(np.exp(x), axis=0)

原创 梯度下降法實現線性迴歸, 實例---預測波士頓房價

本文先手動實現一個線性迴歸模型, 然後用sklearn的線性迴歸模型作對比 import pandas as pd df = pd.read_csv('house_data.csv') #數據集可到網上下載,波士頓房價 df.head

原创 python3 實現線性迴歸(繪圖說明)

線性迴歸是最基本的預測, 先隨機生成一堆大概線性相關的數據, 然後通過最小二乘法算出斜率和偏移值, 線性模型就能求出來了, 也能預測數據了  import numpy as np import matplotlib.pyplot as

原创 jieba/pyhanlp分詞簡單操作

jieba/pyhanlp分詞簡單操作 content = "現如今,機器學習和深度學習帶動人工智能飛速的發展,並在圖片處理、語音識別領域取得巨大成功。" content = jieba.cut(content, cut_all=Fa

原创 leetCode 1號題, 兩數之和的key , python3三種方法實現

原題如下 給定一個整數數組和一個目標值,找出數組中和爲目標值的兩個數。 你可以假設每個輸入只對應一種答案,且同樣的元素不能被重複利用。 示例: 給定 nums = [2, 7, 11, 15], target = 9 因爲 nu