原创 學成在線--23.課程圖片管理(上傳圖片)

文章目錄一. 需求分析1). 需求分析2). 圖片上傳流程二. 創建文件系統服務工程1). 工程目錄結構2). 項目依賴pom.xml3). 配置文件application.yml三. 後端開發1. 模型類1). 模型類2). C

原创 學成在線--25.課程圖片管理(圖片查詢)

文章目錄一. 需求分析二. API三. 服務端開發1. Dao2. Service3. Controller四. 前端開發1. API方法2. 頁面 一. 需求分析 課程圖片上傳成功,再次進入課程上傳頁面應該顯示出來已上傳的圖片。

原创 12-- 缺失的第一個正數

文章目錄1.問題描述2.解題代碼 1.問題描述 給你一個未排序的整數數組,請你找出其中沒有出現的最小的正整數。 示例 1: 輸入: [1,2,0] 輸出: 3 示例 2: 輸入: [3,4,-1,1] 輸出: 2 示例 3: 輸入

原创 13--長度最小的子數組

文章目錄1.題目要求2.解題代碼 1.題目要求 給定一個含有 n 個正整數的數組和一個正整數 s ,找出該數組中滿足其和 ≥ s 的長度最小的連續子數組,並返回其長度。如果不存在符合條件的連續子數組,返回 0。 示例: 輸入:s

原创 11--移除重複節點

編寫代碼,移除未排序鏈表中的重複節點。保留最開始出現的節點。 示例1: 輸入:[1, 2, 3, 3, 2, 1] 輸出:[1, 2, 3] 示例2: 輸入:[1, 1, 1, 1, 2] 輸出:[1, 2]

原创 網絡爬蟲--17.【BeautifuSoup4實戰】爬取騰訊社招

文章目錄一.要求二.代碼示例 一.要求 以騰訊社招頁面來做演示:http://hr.tencent.com/position.php?&start=10#a 使用BeautifuSoup4解析器,將招聘網頁上的職位名稱、職位類別、

原创 網絡爬蟲--20.【Scrapy-Redis實戰】分佈式爬蟲獲取房天下--代碼實現

文章目錄一. 案例介紹二.創建項目三. settings.py配置四. 詳細代碼五. 部署1. windows環境下生成requirements.txt文件2. xshell連接ubuntu服務器並安裝依賴環境3. 修改部分代碼

原创 數據結構與算法--8.二叉樹的基礎知識

文章目錄一. 二叉樹基本概念二. 二叉樹的性質三. 二叉樹的代碼實現四. 二叉樹的先序、中序、後序遍歷 一. 二叉樹基本概念 二. 二叉樹的性質 三. 二叉樹的代碼實現 class Node(object): """

原创 網絡爬蟲--26.Scrapy中下載器中間件Downloader Middlewares的使用

文章目錄一. Downloader Middlewares二. 設置隨機請求頭三. ip代理池中間件 一. Downloader Middlewares 二. 設置隨機請求頭 三. ip代理池中間件

原创 網絡爬蟲--27.csv文件的讀取和寫入

文章目錄一. csv文件二. 讀取csv文件的兩種方式三. 寫入csv文件的兩種方式 一. csv文件 二. 讀取csv文件的兩種方式 import csv def read_csv_demo1(): with ope

原创 網絡爬蟲--23.動態網頁數據抓取

文章目錄一. Ajax二. 獲取Ajax數據的方式三. selenium+chromedriver獲取動態數據四. selenium基本操作 一. Ajax 二. 獲取Ajax數據的方式 三. selenium+chromed

原创 網絡爬蟲--25.【selenium實戰】實現拉勾網爬蟲之--selenium獲取數據

代碼實現 #encoding: utf-8 from selenium import webdriver from lxml import etree import re import time from selenium.we

原创 網絡爬蟲--24.【selenium實戰】實現拉勾網爬蟲之--分析接口獲取數據

文章目錄一. 思路概述二. 分析數據接口三. 詳細代碼 一. 思路概述 1.拉勾網採用Ajax技術,加載網頁時會向後端發送Ajax異步請求,因此首先找到數據接口; 2.後端會返回json的數據,分析數據,找到單個招聘對應的posi

原创 網絡爬蟲--22.【CrawlSpider實戰】實現微信小程序社區爬蟲

文章目錄一. CrawlSpider二. CrawlSpider案例1. 目錄結構2. wxapp_spider.py3. items.py4. pipelines.py5. settings.py6. start.py三. 重點

原创 scrapy框架異常--no more duplicates will be shown (see DUPEFILTER_DEBUG to show all duplicates)

解決方法: https://blog.csdn.net/qq_40176258/article/details/86527568 https://blog.csdn.net/weixin_39946931/article/deta