官方手冊:點擊打開鏈接!
pandas.read_csv
老規矩,官方參數走一波:
read_csv(filepath_or_buffer, sep=',', delimiter=None, header='infer', names=None, index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None, converters=None, true_values=None, false_values=None, skipinitialspace=False, skiprows=None, nrows=None, na_values=None, keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, parse_dates=False, infer_datetime_format=False, keep_date_col=False, date_parser=None, dayfirst=False, iterator=False, chunksize=None, compression='infer', thousands=None, decimal=b'.', lineterminator=None, quotechar='"', quoting=0, escapechar=None, comment=None, encoding=None, dialect=None, tupleize_cols=None, error_bad_lines=True, warn_bad_lines=True, skipfooter=0, doublequote=True, delim_whitespace=False, low_memory=True, memory_map=False, float_precision=None)
相信前兩個參數各位並不陌生
1、filepath_or_buffer:顧名思義,您讀取的文件路徑,URL(包含http,ftp,s3)鏈接等
- filepath_or_buffer : various
-
- Either a path to a file (a str, pathlib.Path, or py._path.local.LocalPath), URL (including http, ftp, and S3 locations), or any object with a read() method (such as an open file or StringIO).
2、sep : str , default','
指定分隔符。如果不指定參數,則會嘗試使用逗號分隔。分隔符長於一個字符並且不是‘\s+’,將使用python的語法分析器。並且忽略數據中的逗號。正則表達式例子:'\r\t'
**這裏補充說明一下‘\s+’,大佬們可以選擇跳過:
詳解 "\s+"
正則表達式中\s匹配任何空白字符,包括空格、製表符、換頁符等等, 等價於[ \f\n\r\t\v]
- \f -> 匹配一個換頁
- \n -> 匹配一個換行符
- \r -> 匹配一個回車符
- \t -> 匹配一個製表符
- \v -> 匹配一個垂直製表符
- 而“\s+”則表示匹配任意多個上面的字符。
- >>> pd.read_csv(temp_path)
- 1\t1.3\t1.4\t2
- 0 as\t3\t4\t5
- >>> pd.read_csv(temp_path,sep='\s+')
- 1 1.3 1.4 2
- 0 as 3 4 5
- >>>
- 這效果看得見
<h3><a name="t1"></a>3、delimiter : str, default None</h3> <p>定界符,備選分隔符(如果指定該參數,則sep參數失效)</p> </li> <li> <p> </p> <pre class="has" name="code"><code class="hljs ruby"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-meta">>></span>> pd.read_csv(temp_path,sep=<span class="hljs-string">'\s+'</span>,delimiter=<span class="hljs-string">'\n'</span>)</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">1</span>\t1.<span class="hljs-number">3</span>\t1.<span class="hljs-number">4</span>\t2</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="5"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">0</span> as\t3\t4\t5</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="6"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="7"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-meta">>></span>></div></div></li></ol></code><div class="hljs-button {2}" data-title="複製" onclick="hljs.copyCode(event)"></div></pre> <p></p> </li>
看,當定義了delimiter參數後,我們的sep就失去了作用,就像後面那句騷話一樣,‘縱然閱過佳麗三千,不敵你的嫣然回眸,一笑百媚生。’
當然,如果你的delimiter也是正和你的數據分割的符號一樣,sep和delimter兩個就是一樣的了
- >>> pd.read_csv(temp_path,delimiter='\t')
- 1 1.3 1.4 2
- 0 as 3 4 5
- >>>
-
4、delim_whitespace : boolean, default False.
是否指定空格(例如’ ‘或者’\t ‘)作爲分隔符使用,等效於設定sep='\s+'。如果這個參數設定爲Ture那麼delimiter 參數失效。
在新版本0.18.1支持
古人云,出來混,遲早要還的,縱然delimiter搶了sep的地位,但是更方便的delim_whitespace魔高一尺,道高一丈。
有了delim_whitespace後,分隔符我們就簡化成了,和sep='\s+'一樣能處理各種常見分割符
- >>> pd.read_csv(temp_path,delim_whitespace=True)
- 1 1.3 1.4 2
- 0 as 3 4 5
- >>>
5、header : int or list of ints, default ‘infer’
指定行數用來作爲列名,數據開始行數。如果文件中沒有列名,則默認爲0,否則設置爲None。如果明確設定header=0 就會替換掉原來存在列名。header參數可以是一個list例如:[0,1,3],這個list表示將文件中的這些行作爲列標題(意味着每一列有多個標題),介於中間的行將被忽略掉(例如本例中的2;本例中的數據1,2,4行將被作爲多級標題出現,第3行數據將被丟棄,dataframe的數據從第5行開始。)。
- 注意:如果skip_blank_lines=True 那麼header參數忽略註釋行和空行,所以header=0表示第一行數據而不是文件的第一行。
- >>> pd.read_csv(temp_path,delim_whitespace=True,header=None)#無標題的情況下,注意0,1,2,3只是在打印的時候方便看的,不是數據中的內容
- 0 1 2 3
- 0 1 2 3 4
- 1 a b c d
- 2 q w e r
- >>>
<pre class="has" name="code"><code class="language-python hljs"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">>>>pd.read_csv(temp_path,delim_whitespace=<span class="hljs-keyword">True</span>)<span class="hljs-comment">#等價於header=0,畢竟header=0爲默認值</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">1</span> <span class="hljs-number">2</span> <span class="hljs-number">3</span> <span class="hljs-number">4</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">0</span> a b c d</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">1</span> q w e r</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="5"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">>>></div></div></li></ol></code><div class="hljs-button {2}" data-title="複製" onclick="hljs.copyCode(event)"></div></pre> <pre class="has" name="code"><code class="hljs python"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-meta">>>> </span>pd.read_csv(temp_path,delim_whitespace=<span class="hljs-keyword">True</span>,header=<span class="hljs-number">1</span>)</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">a b c d</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">0</span> q w e r</div></div></li></ol></code><div class="hljs-button {2}" data-title="複製" onclick="hljs.copyCode(event)"></div></pre> <p> </p> </li>
-
-
- >>> pd.read_csv(temp_path,delim_whitespace=True,header=[0,2])
- Empty DataFrame
- Columns: [(1, q), (2, w), (3, e), (4, r)]
- Index: []
<p> </p> </li>
>>> pd.read_csv(temp_path,delim_whitespace=True,header=[0,1]) 1 2 3 4 a b c d 0 q w e r >>>
對比一下4句代碼,就能明白是怎麼一回事了,其中header=list時,一定注意,就像【0,2】時是將第0行和第2行作爲標題,第一行就會跳過,並從第3行開始讀取數據,由於我這沒有第3行數據,所以出現的是Empty DataFrame(空dataframe),這也能證明跳過了第一行數據。
6、names : array-like, default None
用於結果的列名列表,如果數據文件中沒有列標題行,就需要執行header=None。默認列表中不能出現重複,除非設定參數mangle_dupe_cols=True。
其實如果覺得上面的中文直譯還是很讓人費解,那還是直接老規矩上栗子
第一個是原始name的情況:
- >>> pd.read_csv(temp_path,delim_whitespace=True)
-
- 1 2 3 4
-
- 0 a b c d
-
- 1 q w e r
-
- >>> pd.read_csv(temp_path,delim_whitespace=True).shape
-
- (2, 4)
-
- >>>
第二個就是name的list中列數等於name原始數據列數的情況
- >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6,7,8])
-
- 5 6 7 8
-
- 0 1 2 3 4
-
- 1 a b c d
-
- 2 q w e r
-
- >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6,7,8]).shape
-
- (3, 4)
-
- >>>
我們發現,就相當於將在原始數據的腦袋上加了一個新的標題,這就等效於header = None並給數據加了一個你喜歡的列名
第三種,少於原有列名
- >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6]).shape
-
- (3, 2)
-
- >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6])
-
- 5 6
-
- 1 2 3 4
-
- a b c d
-
- q w e r
-
- >>>
-
我們發現,是從後面開始按你的列表名進行命名加列名,至於前面沒有列名的數據,就將該列作爲了行索引。
index_col : int or sequence or False, default None
用作行索引的列編號或者列名,如果給定一個序列則有多個行索引。
如果文件不規則,行尾有分隔符,則可以設定index_col=False 來是的pandas不適用第一列作爲行索引。
usecols : array-like, default None
返回一個數據子集,該列表中的值必須可以對應到文件中的位置(數字可以對應到指定的列)或者是字符傳爲文件中的列名。例如:usecols有效參數可能是 [0,1,2]或者是 [‘foo’, ‘bar’, ‘baz’]。使用這個參數可以加快加載速度並降低內存消耗。
as_recarray : boolean, default False
不贊成使用:該參數會在未來版本移除。請使用pd.read_csv(...).to_records()替代。
返回一個Numpy的recarray來替代DataFrame。如果該參數設定爲True。將會優先squeeze參數使用。並且行索引將不再可用,索引列也將被忽略。
squeeze : boolean, default False
如果文件值包含一列,則返回一個Series
prefix : str, default None
在沒有列標題時,給列添加前綴。例如:添加‘X’ 成爲 X0, X1, ...
mangle_dupe_cols : boolean, default True
重複的列,將‘X’...’X’表示爲‘X.0’...’X.N’。如果設定爲false則會將所有重名列覆蓋。
dtype : Type name or dict of column -> type, default None
每列數據的數據類型。例如 {‘a’: np.float64, ‘b’: np.int32}
engine : {‘c’, ‘python’}, optional
Parser engine to use. The C engine is faster while the python engine is currently more feature-complete.
使用的分析引擎。可以選擇C或者是python。C引擎快但是Python引擎功能更加完備。
converters : dict, default None
列轉換函數的字典。key可以是列名或者列的序號。
true_values : list, default None
Values to consider as True
false_values : list, default None
Values to consider as False
skipinitialspace : boolean, default False
忽略分隔符後的空白(默認爲False,即不忽略).
skiprows : list-like or integer, default None
需要忽略的行數(從文件開始處算起),或需要跳過的行號列表(從0開始)。
skipfooter : int, default 0
從文件尾部開始忽略。 (c引擎不支持)
skip_footer : int, default 0
不推薦使用:建議使用skipfooter ,功能一樣。
nrows : int, default None
需要讀取的行數(從文件頭開始算起)。
na_values : scalar, str, list-like, or dict, default None
一組用於替換NA/NaN的值。如果傳參,需要制定特定列的空值。默認爲‘1.#IND’, ‘1.#QNAN’, ‘N/A’, ‘NA’, ‘NULL’, ‘NaN’, ‘nan’`.
keep_default_na : bool, default True
如果指定na_values參數,並且keep_default_na=False,那麼默認的NaN將被覆蓋,否則添加。
na_filter : boolean, default True
是否檢查丟失值(空字符串或者是空值)。對於大文件來說數據集中沒有空值,設定na_filter=False可以提升讀取速度。
verbose : boolean, default False
是否打印各種解析器的輸出信息,例如:“非數值列中缺失值的數量”等。
skip_blank_lines : boolean, default True
如果爲True,則跳過空行;否則記爲NaN。
parse_dates : boolean or list of ints or names or list of lists or dict, default False
- boolean. True -> 解析索引
- list of ints or names. e.g. If [1, 2, 3] -> 解析1,2,3列的值作爲獨立的日期列;
- list of lists. e.g. If [[1, 3]] -> 合併1,3列作爲一個日期列使用
- dict, e.g. {‘foo’ : [1, 3]} -> 將1,3列合併,並給合併後的列起名爲"foo"
infer_datetime_format : boolean, default False
如果設定爲True並且parse_dates 可用,那麼pandas將嘗試轉換爲日期類型,如果可以轉換,轉換方法並解析。在某些情況下會快5~10倍。
keep_date_col : boolean, default False
如果連接多列解析日期,則保持參與連接的列。默認爲False。
date_parser : function, default None
用於解析日期的函數,默認使用dateutil.parser.parser來做轉換。Pandas嘗試使用三種不同的方式解析,如果遇到問題則使用下一種方式。
1.使用一個或者多個arrays(由parse_dates指定)作爲參數;
2.連接指定多列字符串作爲一個列作爲參數;
3.每行調用一次date_parser函數來解析一個或者多個字符串(由parse_dates指定)作爲參數。
dayfirst : boolean, default False
DD/MM格式的日期類型
iterator : boolean, default False
返回一個TextFileReader 對象,以便逐塊處理文件。
chunksize : int, default None
文件塊的大小, See IO Tools docs for more informationon iterator and chunksize.
compression : {‘infer’, ‘gzip’, ‘bz2’, ‘zip’, ‘xz’, None}, default ‘infer’
直接使用磁盤上的壓縮文件。如果使用infer參數,則使用 gzip, bz2, zip或者解壓文件名中以‘.gz’, ‘.bz2’, ‘.zip’, or ‘xz’這些爲後綴的文件,否則不解壓。如果使用zip,那麼ZIP包中國必須只包含一個文件。設置爲None則不解壓。
新版本0.18.1版本支持zip和xz解壓
thousands : str, default None
千分位分割符,如“,”或者“."
decimal : str, default ‘.’
字符中的小數點 (例如:歐洲數據使用’,‘).
float_precision : string, default None
Specifies which converter the C engine should use for floating-point values. The options are None for the ordinary converter, high for the high-precision converter, and round_trip for the round-trip converter.
指定
lineterminator : str (length 1), default None
行分割符,只在C解析器下使用。
quotechar : str (length 1), optional
引號,用作標識開始和解釋的字符,引號內的分割符將被忽略。
quoting : int or csv.QUOTE_* instance, default 0
控制csv中的引號常量。可選 QUOTE_MINIMAL (0), QUOTE_ALL (1), QUOTE_NONNUMERIC (2) or QUOTE_NONE (3)
doublequote : boolean, default True
雙引號,當單引號已經被定義,並且quoting 參數不是QUOTE_NONE的時候,使用雙引號表示引號內的元素作爲一個元素使用。
escapechar : str (length 1), default None
當quoting 爲QUOTE_NONE時,指定一個字符使的不受分隔符限值。
comment : str, default None
標識着多餘的行不被解析。如果該字符出現在行首,這一行將被全部忽略。這個參數只能是一個字符,空行(就像skip_blank_lines=True)註釋行被header和skiprows忽略一樣。例如如果指定comment='#' 解析‘#empty\na,b,c\n1,2,3’ 以header=0 那麼返回結果將是以’a,b,c'作爲header。
encoding : str, default None
指定字符集類型,通常指定爲'utf-8'. List of Python standard encodings
dialect : str or csv.Dialect instance, default None
如果沒有指定特定的語言,如果sep大於一個字符則忽略。具體查看csv.Dialect 文檔
tupleize_cols : boolean, default False
Leave a list of tuples on columns as is (default is to convert to a Multi Index on the columns)
error_bad_lines : boolean, default True
如果一行包含太多的列,那麼默認不會返回DataFrame ,如果設置成false,那麼會將改行剔除(只能在C解析器下使用)。
warn_bad_lines : boolean, default True
如果error_bad_lines =False,並且warn_bad_lines =True 那麼所有的“bad lines”將會被輸出(只能在C解析器下使用)。
low_memory : boolean, default True
分塊加載到內存,再低內存消耗中解析。但是可能出現類型混淆。確保類型不被混淆需要設置爲False。或者使用dtype 參數指定類型。注意使用chunksize 或者iterator 參數分塊讀入會將整個文件讀入到一個Dataframe,而忽略類型(只能在C解析器中有效)
buffer_lines : int, default None
不推薦使用,這個參數將會在未來版本移除,因爲他的值在解析器中不推薦使用
compact_ints : boolean, default False
不推薦使用,這個參數將會在未來版本移除
如果設置compact_ints=True ,那麼任何有整數類型構成的列將被按照最小的整數類型存儲,是否有符號將取決於use_unsigned 參數
use_unsigned : boolean, default False
不推薦使用:這個參數將會在未來版本移除
如果整數列被壓縮(i.e. compact_ints=True),指定被壓縮的列是有符號還是無符號的。
memory_map : boolean, default False
如果使用的文件在內存內,那麼直接map文件使用。使用這種方式可以避免文件再次進行IO操作。