原创 1.SQL查詢:45道經典SQL題

CREATE TABLE STUDENT (SNO VARCHAR(3) NOT NULL,  SNAME VARCHAR(4) NOT NULL, SSEX VARCHAR(2) NOT NULL,  SBIRTHDAY DATE,

原创 Python+Selenium用例模塊數據化之4:多賬號登錄並驗證+增加測試報告接口

日誌接口:log_module.pyimport time import os class Loginfo(object): def __init__(self, mode='w'): #打開文件 path =

原创 python3實現mysql導出到excel、txt

1、mysql=》excelimport pymysql import xlwt def sql(sql): #定義一個執行SQL的函數 conn = pymysql.con

原创 Python+Selenium基礎篇之1-環境搭建

                        Python + Selenium 自動化環境搭建過程1.  所需組建1.1  Python(勾選add to path)       驗證python是否安裝完成和path是否添加方法:打

原创 列表,元組,字點,集合,隊列

1:在字點、列表、集合中根據條件篩選數據     過濾掉列表 data1 = [1,5,-3,-2,9,0,6] 中的負數,     篩選出字典 data2 = {'LIlei':'79','Jim':'88','Lucy':'92'}

原创 正則表達式小記

\w  匹配字母數字及下劃線 \W  匹配非字母數字下劃線 \s  匹配任意空白字符,等價於 [\t\n\r\f]. \S  匹配任意非空字符 \d  匹配任意數字,等價於 [0-9] \D  匹配任意非數字 \A  匹配字符串開始 \Z

原创 Python+Selenium用例模塊數據化之2:字典

from selenium import webdriver import time from selenium.webdriver.support.ui import WebDriverWait def waituntil_load(

原创 python3使用pymysql連接Mysql 數據庫及 簡單的增刪改查操作

示例表1查詢操作import pymysql #導入 pymysql #打開數據庫連接 db= pymysql.connect(host="localhost",user="root", password="1

原创 Python+Selenium用例模塊數據化之1:函數式編程和數據簡單集中

以登錄麥子學院爲例url = 'http://www.maiziedu.com/' link_text = '登錄' account = '[email protected]' pwd = 'abc123456' def waitun

原创 Python+Selenium基礎篇之2:selenium介紹

SeleniumSelenium是一個Web的自動化測試工具,最初是爲網站自動化測試而開發的,類型像我們玩遊戲用的按鍵精靈,可以按指定的命令自動操作,不同是Selenium 可以直接運行在瀏覽器上,它支持所有主流的瀏覽器(包括Phanto

原创 Python+Selenium基礎篇之4:selenium頁面設置操作方法

1.常用方法driver = webdriver.chrome()driver.get("http://www.baidu.com/")driver.get_cookies()# 獲取當前頁面Cookie driver.page_sour

原创 scrapy爬蟲之pipelines(數據庫和json)

數據存儲第一種:本地jsonimport json class JsonPipeline(object): def __init__(self): self.file = open('job.json','w',

原创 scrapy爬蟲之爬取拉勾網職位信息

一.編寫Itemimport scrapy class LagouItem(scrapy.Item): # define the fields for your item here like: # name = scr

原创 Python+Selenium用例模塊數據化之3:數據從文件中導入

webinfo.txt url=http://www.maiziedu.com/ text_id=登錄 userid=id_account_l pwdid=id_password_l loginid=login_btnuserinfo.t

原创 scrapy爬蟲之pipelines圖片下載

利用scrapy提供的專門處理下載的Pipeline(文件和圖片下載),此原理與抓取頁面原理一樣,因此下載過程支持異步和多線程,下載十分高效。首先:定義存儲文件的路徑(settings中定義IMAGES_STORE變量)