原创 centos7.5 部署flask+nginx+uwsgi+python3

centos7.5 部署flask+nginx+uwsgi+python3  ## uwsgi [uwsgi] master = true max-requests = 6000 processes = 6 threads = 6 chm

原创 MySQ--語句大全

MySQl查詢語句大全 綜合使用 查詢 目錄: #----綜合使用 書寫順序 select distinct * from '表名' where '限制條件'  group by '分組依據' having '過濾條件' order by

原创 python--鏈接kafka

1.創建生產者 from kafka import KafkaProducer from kafka.errors import KafkaError producer = KafkaProducer( bootstrap_s

原创 Python3--監控疫情

import requests import json   from pyecharts.charts import Map, Geo from pyecharts import options as opts from pyechart

原创 python3對接微信小程序藍牙

''' Created on 2019年10月15日 @author: lg ''' from Crypto.Cipher import AES from binascii import b2a_hex, a2b_hex # 強制

原创 藍牙自定開鎖時間--Python

from Crypto.Cipher import AES from binascii import b2a_hex, a2b_hex ###強制輸入明文增加到16字節的倍數,在末尾補'\0' def add_to_16(text)

原创 gunicorn +nginx+python3 部署(gevent+gevent)--依賴的包

gunicorn +nginx+python3 部署(gevent+gevent)--依賴的包 bind = ["0.0.0.0:5010"] workers = 4 backlog = 2048 worker_cla

原创 requests----爬取虎嗅網站

# -*- coding:utf-8 -*- # author: street import re import datetime import time, redis from bs4 import BeautifulSoup fr

原创 用scrapy-redis爬去新浪-以及把數據存儲到mysql\mongo

需求:爬取新浪網導航頁(http://news.sina.com.cn/guide/)所有下所有大類、小類、小類裏的子鏈接,以及子鏈接頁面的新聞內容。 準備工作: a.安裝redis(windows或者linux) b.安裝Redis De

原创 AI運行環境的搭建

安裝tensorflow 安裝環境爲CENTOS6.8操作系統,pip安裝tensorflow後提示GLIBC版本過低。考慮到升級GLIBC有一定的風險,所以決定使用編譯安裝的方式安裝tensorflow。基本流程是按照這篇教程: http

原创 mysql高級

一、存儲引擎 InnoDB MyISAM 比較 二、數據類型 整型 浮點數 字符串 時間和日期 三、索引 索引分類 索引的優點 索引優化 B-Tree 和 B+Tree 原理 四、查詢性能優化 五、切分

原创 python rtree包查找三維空間下的最近設備

  rtree模塊有2個常用的類:rtree.index.Index和rtree.index.Property。其中rtree.index.Index用於進行數據操作,rtree.index.Property用於對index進行屬性的設定。

原创 數據結構

翻書問題或者走臺階問題: 共有n個臺階,每次只能上1個臺階或者2個臺階,共有多少種方法爬完臺階。 共有n頁書,每次只能翻1頁或者2頁書,共有多少種方法翻完全書。 # f(n)爲翻完全書的方法 # 遞歸寫法 def f(n): i

原创 mysql筆記

讀寫分離,主從,master-slave master機器只用來寫入 slave機器只能用來讀取 讀寫分離的問題:數據同步的問題,master機器會把新寫入數據的同步到slave機器上,毫秒級別 django配置如下 DATABASES

原创 scrapy爬取--騰訊社招的網站

需求:得到相應的職位、職位類型、職位的鏈接 、招聘人數、工作地點、發佈時間 一、創建Scrapy項目的流程 1)使用命令創建爬蟲騰訊招聘的職位項目:scrapy startproject tencent 2)進程項目命令:cd tencen