pandas.read_csv()參數詳解

 

官方手冊:點擊打開鏈接

pandas.read_csv

老規矩,官方參數走一波:

read_csv(filepath_or_buffer, sep=',', delimiter=None, header='infer', names=None, index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None, converters=None, true_values=None, false_values=None, skipinitialspace=False, skiprows=None, nrows=None, na_values=None, keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, parse_dates=False, infer_datetime_format=False, keep_date_col=False, date_parser=None, dayfirst=False, iterator=False, chunksize=None, compression='infer', thousands=None, decimal=b'.', lineterminator=None, quotechar='"', quoting=0, escapechar=None, comment=None, encoding=None, dialect=None, tupleize_cols=None, error_bad_lines=True, warn_bad_lines=True, skipfooter=0, doublequote=True, delim_whitespace=False, low_memory=True, memory_map=False, float_precision=None)


 

相信前兩個參數各位並不陌生

1、filepath_or_buffer:顧名思義,您讀取的文件路徑,URL(包含http,ftp,s3)鏈接等

  1. filepath_or_buffer : various
  2. Either a path to a file (a str, pathlib.Path, or py._path.local.LocalPath), URL (including http, ftp, and S3 locations), or any object with a read() method (such as an open file or StringIO).


​​​​​

2、sep : str , default','

指定分隔符。如果不指定參數,則會嘗試使用逗號分隔。分隔符長於一個字符並且不是‘\s+’,將使用python的語法分析器。並且忽略數據中的逗號。正則表達式例子:'\r\t'

**這裏補充說明一下‘\s+’,大佬們可以選擇跳過:

 

詳解 "\s+"

正則表達式中\s匹配任何空白字符,包括空格、製表符、換頁符等等, 等價於[ \f\n\r\t\v]

  • \f -> 匹配一個換頁
  • \n -> 匹配一個換行符
  • \r -> 匹配一個回車符
  • \t -> 匹配一個製表符
  • \v -> 匹配一個垂直製表符
  • 而“\s+”則表示匹配任意多個上面的字符。
    1. >>> pd.read_csv(temp_path)
    2. 1\t1.3\t1.4\t2
    3. 0 as\t3\t4\t5
    4. >>> pd.read_csv(temp_path,sep='\s+')
    5. 1 1.3 1.4 2
    6. 0 as 3 4 5
    7. >>>
    8. 這效果看得見
    <h3><a name="t1"></a>3、delimiter&nbsp;: str, default&nbsp;None</h3>
    
    <p>定界符,備選分隔符(如果指定該參數,則sep參數失效)</p>
    </li>
    <li>
    <p>&nbsp;</p>
    
    <pre class="has" name="code"><code class="hljs ruby"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-meta">&gt;&gt;</span>&gt; pd.read_csv(temp_path,sep=<span class="hljs-string">'\s+'</span>,delimiter=<span class="hljs-string">'\n'</span>)</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">1</span>\t1.<span class="hljs-number">3</span>\t1.<span class="hljs-number">4</span>\t2</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="5"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">0</span> as\t3\t4\t5</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="6"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="7"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-meta">&gt;&gt;</span>&gt;</div></div></li></ol></code><div class="hljs-button {2}" data-title="複製" onclick="hljs.copyCode(event)"></div></pre>
    
    <p>​​​​​</p>
    </li>
    

看,當定義了delimiter參數後,我們的sep就失去了作用,就像後面那句騷話一樣,‘縱然閱過佳麗三千,不敵你的嫣然回眸,一笑百媚生。’

當然,如果你的delimiter也是正和你的數據分割的符號一樣,sep和delimter兩個就是一樣的了

  1. >>> pd.read_csv(temp_path,delimiter='\t')
  2. 1 1.3 1.4 2
  3. 0 as 3 4 5
  4. >>>

 

4、delim_whitespace : boolean, default False.

是否指定空格(例如’   ‘或者’\t ‘)作爲分隔符使用,等效於設定sep='\s+'。如果這個參數設定爲Ture那麼delimiter 參數失效。

在新版本0.18.1支持

 

古人云,出來混,遲早要還的,縱然delimiter搶了sep的地位,但是更方便的delim_whitespace魔高一尺,道高一丈。

 有了delim_whitespace後,分隔符我們就簡化成了,和sep='\s+'一樣能處理各種常見分割符

  1. >>> pd.read_csv(temp_path,delim_whitespace=True)
  2. 1 1.3 1.4 2
  3. 0 as 3 4 5
  4. >>>


5、header : int or list of ints, default ‘infer’

指定行數用來作爲列名,數據開始行數。如果文件中沒有列名,則默認爲0,否則設置爲None。如果明確設定header=0 就會替換掉原來存在列名。header參數可以是一個list例如:[0,1,3],這個list表示將文件中的這些行作爲列標題(意味着每一列有多個標題),介於中間的行將被忽略掉(例如本例中的2;本例中的數據1,2,4行將被作爲多級標題出現,第3行數據將被丟棄,dataframe的數據從第5行開始。)。

  1. 注意:如果skip_blank_lines=True 那麼header參數忽略註釋行和空行,所以header=0表示第一行數據而不是文件的第一行。
    1. >>> pd.read_csv(temp_path,delim_whitespace=True,header=None)#無標題的情況下,注意0,1,2,3只是在打印的時候方便看的,不是數據中的內容
    2. 0 1 2 3
    3. 0 1 2 3 4
    4. 1 a b c d
    5. 2 q w e r
    6. >>>  
    <pre class="has" name="code"><code class="language-python hljs"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">&gt;&gt;&gt;pd.read_csv(temp_path,delim_whitespace=<span class="hljs-keyword">True</span>)<span class="hljs-comment">#等價於header=0,畢竟header=0爲默認值</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">1</span> <span class="hljs-number">2</span> <span class="hljs-number">3</span> <span class="hljs-number">4</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">0</span> a b c d</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">1</span> q w e r</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="5"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">&gt;&gt;&gt;</div></div></li></ol></code><div class="hljs-button {2}" data-title="複製" onclick="hljs.copyCode(event)"></div></pre>
    
    <pre class="has" name="code"><code class="hljs python"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-meta">&gt;&gt;&gt; </span>pd.read_csv(temp_path,delim_whitespace=<span class="hljs-keyword">True</span>,header=<span class="hljs-number">1</span>)</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"> </div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">a b c d</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-number">0</span> q w e r</div></div></li></ol></code><div class="hljs-button {2}" data-title="複製" onclick="hljs.copyCode(event)"></div></pre>
    
    <p>&nbsp;</p>
    </li>
    
  1.  

    1. >>> pd.read_csv(temp_path,delim_whitespace=True,header=[0,2])
    2. Empty DataFrame
    3. Columns: [(1, q), (2, w), (3, e), (4, r)]
    4. Index: []
    <p>&nbsp;</p>
    </li>
    
  1. >>> pd.read_csv(temp_path,delim_whitespace=True,header=[0,1])
  2. 1 2 3 4
  3. a b c d
  4. 0 q w e r
  5. >>>
  1.  

對比一下4句代碼,就能明白是怎麼一回事了,其中header=list時,一定注意,就像【0,2】時是將第0行和第2行作爲標題,第一行就會跳過,並從第3行開始讀取數據,由於我這沒有第3行數據,所以出現的是Empty DataFrame(空dataframe),這也能證明跳過了第一行數據。
 

6、names : array-like, default None

用於結果的列名列表,如果數據文件中沒有列標題行,就需要執行header=None。默認列表中不能出現重複,除非設定參數mangle_dupe_cols=True。

 

其實如果覺得上面的中文直譯還是很讓人費解,那還是直接老規矩上栗子

第一個是原始name的情況:

  1. >>> pd.read_csv(temp_path,delim_whitespace=True)
  2. 1 2 3 4
  3. 0 a b c d
  4. 1 q w e r
  5. >>> pd.read_csv(temp_path,delim_whitespace=True).shape
  6. (2, 4)
  7. >>>

第二個就是name的list中列數等於name原始數據列數的情況

  1. >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6,7,8])
  2. 5 6 7 8
  3. 0 1 2 3 4
  4. 1 a b c d
  5. 2 q w e r
  6. >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6,7,8]).shape
  7. (3, 4)
  8. >>>

我們發現,就相當於將在原始數據的腦袋上加了一個新的標題,這就等效於header = None並給數據加了一個你喜歡的列名

第三種,少於原有列名

  1. >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6]).shape
  2. (3, 2)
  3. >>> pd.read_csv(temp_path,delim_whitespace=True,names=[5,6])
  4. 5 6
  5. 1 2 3 4
  6. a b c d
  7. q w e r
  8. >>>

我們發現,是從後面開始按你的列表名進行命名加列名,至於前面沒有列名的數據,就將該列作爲了行索引。

 

index_col : int or sequence or False, default None

用作行索引的列編號或者列名,如果給定一個序列則有多個行索引。

如果文件不規則,行尾有分隔符,則可以設定index_col=False 來是的pandas不適用第一列作爲行索引。

 

usecols : array-like, default None

返回一個數據子集,該列表中的值必須可以對應到文件中的位置(數字可以對應到指定的列)或者是字符傳爲文件中的列名。例如:usecols有效參數可能是 [0,1,2]或者是 [‘foo’, ‘bar’, ‘baz’]。使用這個參數可以加快加載速度並降低內存消耗。

 

as_recarray : boolean, default False

不贊成使用:該參數會在未來版本移除。請使用pd.read_csv(...).to_records()替代。

返回一個Numpy的recarray來替代DataFrame。如果該參數設定爲True。將會優先squeeze參數使用。並且行索引將不再可用,索引列也將被忽略。

 

squeeze : boolean, default False

如果文件值包含一列,則返回一個Series

 

prefix : str, default None

在沒有列標題時,給列添加前綴。例如:添加‘X’ 成爲 X0, X1, ...

 

mangle_dupe_cols : boolean, default True

重複的列,將‘X’...’X’表示爲‘X.0’...’X.N’。如果設定爲false則會將所有重名列覆蓋。

 

dtype : Type name or dict of column -> type, default None

每列數據的數據類型。例如 {‘a’: np.float64, ‘b’: np.int32}

 

engine : {‘c’, ‘python’}, optional

Parser engine to use. The C engine is faster while the python engine is currently more feature-complete.

使用的分析引擎。可以選擇C或者是python。C引擎快但是Python引擎功能更加完備。

 

converters : dict, default None

列轉換函數的字典。key可以是列名或者列的序號。

 

true_values : list, default None

Values to consider as True

 

false_values : list, default None

Values to consider as False

 

skipinitialspace : boolean, default False

忽略分隔符後的空白(默認爲False,即不忽略).

 

skiprows : list-like or integer, default None

需要忽略的行數(從文件開始處算起),或需要跳過的行號列表(從0開始)。

 

skipfooter : int, default 0

從文件尾部開始忽略。 (c引擎不支持)

 

skip_footer : int, default 0

不推薦使用:建議使用skipfooter ,功能一樣。

 

nrows : int, default None

需要讀取的行數(從文件頭開始算起)。

 

na_values : scalar, str, list-like, or dict, default None

一組用於替換NA/NaN的值。如果傳參,需要制定特定列的空值。默認爲‘1.#IND’, ‘1.#QNAN’, ‘N/A’, ‘NA’, ‘NULL’, ‘NaN’, ‘nan’`.

 

keep_default_na : bool, default True

如果指定na_values參數,並且keep_default_na=False,那麼默認的NaN將被覆蓋,否則添加。

 

na_filter : boolean, default True

是否檢查丟失值(空字符串或者是空值)。對於大文件來說數據集中沒有空值,設定na_filter=False可以提升讀取速度。

 

verbose : boolean, default False

是否打印各種解析器的輸出信息,例如:“非數值列中缺失值的數量”等。

 

skip_blank_lines : boolean, default True

如果爲True,則跳過空行;否則記爲NaN。

 

parse_dates : boolean or list of ints or names or list of lists or dict, default False

  • boolean. True -> 解析索引
  • list of ints or names. e.g. If [1, 2, 3] -> 解析1,2,3列的值作爲獨立的日期列;
  • list of lists. e.g. If [[1, 3]] -> 合併1,3列作爲一個日期列使用
  • dict, e.g. {‘foo’ : [1, 3]} -> 將1,3列合併,並給合併後的列起名爲"foo"

 

infer_datetime_format : boolean, default False

如果設定爲True並且parse_dates 可用,那麼pandas將嘗試轉換爲日期類型,如果可以轉換,轉換方法並解析。在某些情況下會快5~10倍。

 

keep_date_col : boolean, default False

如果連接多列解析日期,則保持參與連接的列。默認爲False。

 

date_parser : function, default None

用於解析日期的函數,默認使用dateutil.parser.parser來做轉換。Pandas嘗試使用三種不同的方式解析,如果遇到問題則使用下一種方式。

1.使用一個或者多個arrays(由parse_dates指定)作爲參數;

2.連接指定多列字符串作爲一個列作爲參數;

3.每行調用一次date_parser函數來解析一個或者多個字符串(由parse_dates指定)作爲參數。

 

dayfirst : boolean, default False

DD/MM格式的日期類型

 

iterator : boolean, default False

返回一個TextFileReader 對象,以便逐塊處理文件。

 

chunksize : int, default None

文件塊的大小, See IO Tools docs for more informationon iterator and chunksize.

 

compression : {‘infer’, ‘gzip’, ‘bz2’, ‘zip’, ‘xz’, None}, default ‘infer’

直接使用磁盤上的壓縮文件。如果使用infer參數,則使用 gzip, bz2, zip或者解壓文件名中以‘.gz’, ‘.bz2’, ‘.zip’, or ‘xz’這些爲後綴的文件,否則不解壓。如果使用zip,那麼ZIP包中國必須只包含一個文件。設置爲None則不解壓。

新版本0.18.1版本支持zip和xz解壓

 

thousands : str, default None

千分位分割符,如“,”或者“."

 

decimal : str, default ‘.’

字符中的小數點 (例如:歐洲數據使用’,‘).

 

float_precision : string, default None

Specifies which converter the C engine should use for floating-point values. The options are None for the ordinary converter, high for the high-precision converter, and round_trip for the round-trip converter.

指定

 

lineterminator : str (length 1), default None

行分割符,只在C解析器下使用。

 

quotechar : str (length 1), optional

引號,用作標識開始和解釋的字符,引號內的分割符將被忽略。

 

quoting : int or csv.QUOTE_* instance, default 0

控制csv中的引號常量。可選 QUOTE_MINIMAL (0), QUOTE_ALL (1), QUOTE_NONNUMERIC (2) or QUOTE_NONE (3)

 

doublequote : boolean, default True

雙引號,當單引號已經被定義,並且quoting 參數不是QUOTE_NONE的時候,使用雙引號表示引號內的元素作爲一個元素使用。

 

escapechar : str (length 1), default None

當quoting 爲QUOTE_NONE時,指定一個字符使的不受分隔符限值。

 

comment : str, default None

標識着多餘的行不被解析。如果該字符出現在行首,這一行將被全部忽略。這個參數只能是一個字符,空行(就像skip_blank_lines=True)註釋行被header和skiprows忽略一樣。例如如果指定comment='#' 解析‘#empty\na,b,c\n1,2,3’ 以header=0 那麼返回結果將是以’a,b,c'作爲header。

 

encoding : str, default None

指定字符集類型,通常指定爲'utf-8'. List of Python standard encodings

 

dialect : str or csv.Dialect instance, default None

如果沒有指定特定的語言,如果sep大於一個字符則忽略。具體查看csv.Dialect 文檔

 

tupleize_cols : boolean, default False

Leave a list of tuples on columns as is (default is to convert to a Multi Index on the columns)

 

error_bad_lines : boolean, default True

如果一行包含太多的列,那麼默認不會返回DataFrame ,如果設置成false,那麼會將改行剔除(只能在C解析器下使用)。

 

warn_bad_lines : boolean, default True

如果error_bad_lines =False,並且warn_bad_lines =True 那麼所有的“bad lines”將會被輸出(只能在C解析器下使用)。

 

low_memory : boolean, default True

分塊加載到內存,再低內存消耗中解析。但是可能出現類型混淆。確保類型不被混淆需要設置爲False。或者使用dtype 參數指定類型。注意使用chunksize 或者iterator 參數分塊讀入會將整個文件讀入到一個Dataframe,而忽略類型(只能在C解析器中有效)

 

buffer_lines : int, default None

不推薦使用,這個參數將會在未來版本移除,因爲他的值在解析器中不推薦使用

 

compact_ints : boolean, default False

不推薦使用,這個參數將會在未來版本移除

如果設置compact_ints=True ,那麼任何有整數類型構成的列將被按照最小的整數類型存儲,是否有符號將取決於use_unsigned 參數

 

use_unsigned : boolean, default False

不推薦使用:這個參數將會在未來版本移除

如果整數列被壓縮(i.e. compact_ints=True),指定被壓縮的列是有符號還是無符號的。

memory_map : boolean, default False

如果使用的文件在內存內,那麼直接map文件使用。使用這種方式可以避免文件再次進行IO操作。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章