原创 win10開機啓動項文件夾路徑

一、當前用戶啓動文件夾打開方法 1、win+r打開運行。 2、輸入 shell:startup 3、打開的文件夾即爲當前用戶的啓動目錄。 4、將程序的快捷方式複製到此文件夾,即可實現開機自啓動。 二、所有用戶啓動文件夾打開文件 1、上面的

原创 Python包及其定義和引用詳解

Python包及其定義和引用詳解 對於一個需要實際應用的模塊而言,往往會具有很多程序單元,包括變量、函數和類等,如果將整個模塊的所有內容都定義在同一個 Python 源文件中,這個文件將會變得非常龐大,顯然並不利於模塊化開發。 什麼是包 爲

原创 本地通過ssh連接服務器數據庫

通過xshell的ssh方式連接服務器後,使用隧道進行轉接,然後就可以在本機電腦實現連接服務器中的數據庫了。 具體操作如下: 1.先使用xshell連接服務器(xshell不會網上有很多教程,安裝很方便) 2.使用隧道方式配置,進行轉接

原创 sklearn:隨機森林_迴歸樹_波士頓房價_填補缺失值

分類樹和迴歸樹參數差別: criterion 分類:使用信息增益, 迴歸: 均方誤差MSE,使用均值。mse是父節點與葉子節點之間的均方誤差,用來選擇特徵。同時也是用於衡量模型質量的指標。均方誤差是正的,但是sklearn中的均方

原创 sklearn:隨機森林_分類器_紅酒數據集

from sklearn.datasets import load_wine from sklearn.ensemble import RandomForestClassifier from sklearn.tree import Deci

原创 sklearn:決策分類樹_泰坦尼克號_網格掃描

import pandas as pd from sklearn.tree import DecisionTreeClassifier import matplotlib.pyplot as plt from sklearn.model_s

原创 sklearn:決策分類樹_紅酒數據集

from sklearn import tree from sklearn.datasets import load_wine # 紅酒數據 from sklearn.model_selection import train_test_s

原创 sklearn 決策迴歸樹擬合正弦曲線

# 先構造正弦函數 + 噪音 import numpy as np rng = np.random.RandomState(1) X = np.sort(5 * rng.rand(80, 1), axis=0) # 生成 0~5之間隨機

原创 graphviz安裝(windows環境)

graphviz是一款開源的可視化圖形工具,在sklearn中,用於畫決策樹也很方便,其安裝流程如下: 下載 鏈接:https://graphviz.gitlab.io/_pages/Download/windows/graphviz-2.

原创 idea中 展開、摺疊所有代碼

進入setting-> keymap 1、展開快捷鍵,搜索關鍵詞:expand all 2、摺疊快捷鍵,搜索關鍵詞:eclapse all 3、或者直接搜索 folding 如下圖所示: 如果不習慣使用默認的,可以自行設置。 參考鏈接:h

原创 windows安裝tensorflow gpu版本

tensorflow1.14.0和cuda10.0.0兼容性比較好,建議安裝這兩個版本 1、下載CUDA 鏈接:https://developer.nvidia.com/cuda-downloads?target_os=Windows&ta

原创 LaTeX數學公式輸入

我在jupyter notebook中實現LaTex公式輸入。 進入jupyter後,選擇輸入框,英文模式下按m鍵,切換到Markdown模式: 開根號 $\sqrt{5}$ 分數 $\frac{3 + x}{5}$

原创 win10安裝mysql,及重裝

下載 1、官網下載地址:https://dev.mysql.com/downloads/mysql/ 2、選擇對應的系統。 3、選擇版本 如果能聯網,可以選擇在線安裝包,如果電腦無法聯網,選擇離線安裝包下載 安裝MySql 1、將下載文

原创 python生產和消費kafka數據

安裝kafka-python pip install kafka-python 生產者 from kafka import KafkaProducer # 有時候導入包會報錯,使用pip uninstall kafka-python,卸

原创 spark streaming updatestatebykey scala

import org.apache.spark.streaming._ import org.apache.spark.SparkConf import org.apache.spark.sql.SparkSession import or