原创 使用APScheduler模塊使Django服務啓動時自動運行腳本(可設置定時運行)
Django搭建的服務器一般都用作WEB網站進行訪問,通常的形式是用戶訪問網站或點擊按鈕發送請求,Django檢測到請求後進行相應的試圖函數處理後返回頁面給用戶。 但是,我們有時會需要有一些後臺自動運行的任務,即使沒有用戶請求時也
原创 ElasticSearch多條件查詢
1、查詢message裏同時含有“創建流程,校驗用戶級配額”和“9555b250e0794b91a0b036af8756b53a”的 GET /bcop-2019.09.16/bcop-op-order-manage/_searc
原创 python:通過函數實現手機號的加密、解密
# 聲明一個函數 將電話進行加密 返回加密後的內容 # 解密函數:傳入加密後的內容 返回的是電話號碼 # 電話號碼不固定 # 加密 def encryption(): content = input("請輸入您的電話號
原创 python:拋硬幣遊戲【連續隨機拋硬幣100次(0表示正面,1表示反面) 打印出連續出現同一面的最長次數】
import random lst = [] i = 1 while i <= 100: lst.append(random.randint(0, 1)) i += 1 # print(lst) count =
原创 python:四種形狀的九九乘法表
# 九九乘法表一 for i in range(1, 10): for j in range(1, i + 1): print('{} * {} = {: <2}'.format(j, i, i*j), e
原创 python:使用遞歸實現將一個數的各位相加
''' 使用遞歸實現將一個數的各位相加 # 如:123各位相加得 1+ 2 + 3 = 6 346 --> 3 + 4 + 6 = 13 ''' num = input("請輸入一個數字: ") def f(): num
原创 python:拋硬幣遊戲【連續拋1000次硬幣 打印出連續出現4次0的次數 連續出現8次1的次數】
import random # 連續拋1000次硬幣 打印出連續出現4次0的次數 連續出現8次1的次數 lst2 = [] i = 1 while i <= 1000: lst2.append(random.rand
原创 python:五種方法去除列表的重複元素 list去重
# 去重 lst = [1, 2, 3, 2, 3, 4] # 第一種 集合可以去重 先轉換成集合再轉換成列表 print("方法一:", list(set(lst))) # 第二種 lst.sort() del_lst =
原创 python:寫一個函數,傳入一個文件夾路徑,返回它的大小
import os def file_func(path): total = 0 # 獲取傳入的文件夾中所有的文件和文件夾 all_contents = os.listdir(path) for
原创 mysql自增步長不是1,id亂了重新排序的解決辦法
1、mysql自增步長不是1的解決辦法 查看配置: show variables like ‘%increment%’; 如果: auto_increment_increment=2 執行: set @@global.auto_
原创 KNN算法 數字識別
import os import numpy as np def data_trans(dir_path): file_list = os.listdir(dir_path) # print(file_list
原创 機器學習之K-Means算法
K-Means算法對航空公司客戶進行分類 1.數據預處理: import numpy as np import pandas as pd data = pd.read_csv("./air_data.csv", encoding
原创 機器學習之KNN算法
需求:根據表格左側的分類,將唐人街探案進行分類 # 分類算法 KNN # 1.計算每個樣本和我新樣本的相似度是多高? # 2.排序 # 3.選取K值 import pandas as pd import numpy as np
原创 鏈家租房數據抓取流程、分析
一、抓取前準備工作: 1、創建一個爬蟲項目:在指定的文件夾中 scrapy startproject xxx(項目名) 2、在項目的spiders的目錄中創建爬蟲:scrapy genspider bd.py baidu.com
原创 python爬蟲:使用scrapy框架對鏈家租房深度爬取,並存入redis、mysql、mongodb數據庫
1.items.py # -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # https