php讀寫txt文件與讀寫數據庫哪個更快?解決辦法

轉載自北方的狼

讀寫txt文件與讀寫數據庫哪個更快?解決辦法

今天 突然遇到這個問題,在網上找了很久才找到的一篇文章,所以轉來了,其實這個問題開始是有些模糊,但仔細想一下還是能猜出一個大概,所以有時候,人的意識可能也很作用!

讀文件更快還是讀數據庫更快,能快多少,也搜索過,沒見有網友就這個問題答覆過,也可能是太簡單的緣故,我們本文還是來實測一下,由於時間關係,VC還沒裝,天緣先用PHP測試了一下,下次有時間在C/C++上補充測試到本文來,因爲PHP的底層解析應該也是基於C的,所以估計兩者環境測試結果差不多,小問題大收穫,現在就來看一下測試過程及結果。

測試程序如下:

//說明1:由於讀數據庫語句調用簡單的封包函數兩次,所以把讀文件也改成連續調用兩次,數據庫記錄ID爲1就在第一條,並且唯一索引。

//說明2:測試兩次一次是4K數據,一次是整形數據

set_time_limit(0);

function fnGet($filename)
{
    $content = file_get_contents($filename);
    return $content;
}

function fnGetContent($filename)
{
    $content = fnGet($filename);
    return $content;
}
    
$times=100000;    
echo '數據庫查詢結果:<br/>';
//---------------------------------
$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $res=$dbcon->mydb_query("SELECT log_Content FROM blog WHERE log_ID='1'");
    $row=$dbcon->mydb_fetch_row($res);
    $content=$row[0];
}
echo 'fetch_row '.$times.' 次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $res=$dbcon->mydb_query("SELECT log_Content FROM blog WHERE log_ID='1'");
    $row=$dbcon->mydb_fetch_array($res);
    $content=$row['log_Content'];    
}
echo 'fetch_array '.$times.' 次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $res=$dbcon->mydb_query("SELECT log_Content FROM blog WHERE log_ID='1'");
    $row=$dbcon->mydb_fetch_object($res);
    $content=$row->log_Content;    
}
echo 'fetch_object '.$times.' 次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$dbcon->mydb_free_results();
$dbcon->mydb_disconnect();

fnWriteCache('test.txt',$content);

echo '直接讀文件測試結果:<br/>';

//---------------------------------
$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $content = fnGetContent('test.txt');
}
echo 'file_get_contents直接讀'.$times.'次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $fname = 'test.txt';
    if(file_exists($fname))
    {
        $fp=fopen($fname,"r");//flock($fp,LOCK_EX);        
        $file_data=fread($fp, filesize($fname));//rewind($fp);       
        fclose($fp);
    }
    $content = fnGetContent('test.txt');
}    
echo 'fopen直接讀'.$times.'次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';

4K大小數據的查詢結果:

fetch_row 100000 次時間:16.737720012665秒

fetch_array 100000 次時間:16.661195993423秒

fetch_object 100000 次時間:16.775065898895秒

直接讀文件測試結果:

file_get_contents直接讀100000次時間:5.4631857872009秒

fopen直接讀100000次時間:11.463611125946秒

整形ID查詢結果:

fetch_row 100000 次時間:12.812072038651秒

fetch_array 100000 次時間:12.667390108109秒

fetch_object 100000 次時間:12.988099098206秒

直接讀文件測試結果:

file_get_contents直接讀100000次時間:5.6616430282593秒

fopen直接讀100000次時間:11.542816877365秒

測試結論:

1、直接讀文件相比數據庫查詢效率更勝一籌而且文中還沒算上連接和斷開的時間

2、一次讀取的內容越大,直接讀文件的優勢會越明顯(讀文件時間都是小幅增長,這跟文件存儲的連續性和簇大小等有關係),這個結果恰恰跟天緣預料的相反,說明MYSQL對更大文件讀取可能又附加了某些操作(兩次時間增長了近30%),如果只是單純的賦值轉換應該是差異偏小纔對。

3、寫文件和INSERT幾乎不用測試就可以推測出,數據庫效率只會更差。

4、很小的配置文件如果不需要使用到數據庫特性,更加適合放到獨立文件裏存取,無需單獨創建數據表或記錄,很大的文件比如圖片、音樂等採用文件存儲更爲方便,只把路徑或縮略圖等索引信息放到數據庫裏更合理一些。

5、PHP上如果只是讀文件,file_get_contents比fopen、fclose更有效率,不包括判斷存在這個函數時間會少3秒左右。

6、fetch_row和fetch_object應該是從fetch_array轉換而來的,天緣沒看過PHP的源碼,單從執行上就可以說明fetch_array效率更高,這跟網上的說法似乎相反。

實際上在做這個試驗之前,從個人經驗判斷就有了大概的結果,測試完成後則有種豁然開朗的感覺。假定在程序效率和關鍵過程相當且不計入緩存等措施的條件下,讀寫任何類型的數據都沒有直接操作文件來的快,不論MSYQL過程如何,最後都要到磁盤上去讀這個“文件”(記錄存儲區等效),所以當然這一切的前提是隻讀內容,無關任何排序或查找操作。

讀寫txt文件與讀寫數據庫哪個更快?解決辦法

今天 突然遇到這個問題,在網上找了很久才找到的一篇文章,所以轉來了,其實這個問題開始是有些模糊,但仔細想一下還是能猜出一個大概,所以有時候,人的意識可能也很作用!

讀文件更快還是讀數據庫更快,能快多少,也搜索過,沒見有網友就這個問題答覆過,也可能是太簡單的緣故,我們本文還是來實測一下,由於時間關係,VC還沒裝,天緣先用PHP測試了一下,下次有時間在C/C++上補充測試到本文來,因爲PHP的底層解析應該也是基於C的,所以估計兩者環境測試結果差不多,小問題大收穫,現在就來看一下測試過程及結果。

測試程序如下:

//說明1:由於讀數據庫語句調用簡單的封包函數兩次,所以把讀文件也改成連續調用兩次,數據庫記錄ID爲1就在第一條,並且唯一索引。

//說明2:測試兩次一次是4K數據,一次是整形數據

set_time_limit(0);

function fnGet($filename)
{
    $content = file_get_contents($filename);
    return $content;
}

function fnGetContent($filename)
{
    $content = fnGet($filename);
    return $content;
}
    
$times=100000;    
echo '數據庫查詢結果:<br/>';
//---------------------------------
$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $res=$dbcon->mydb_query("SELECT log_Content FROM blog WHERE log_ID='1'");
    $row=$dbcon->mydb_fetch_row($res);
    $content=$row[0];
}
echo 'fetch_row '.$times.' 次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $res=$dbcon->mydb_query("SELECT log_Content FROM blog WHERE log_ID='1'");
    $row=$dbcon->mydb_fetch_array($res);
    $content=$row['log_Content'];    
}
echo 'fetch_array '.$times.' 次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $res=$dbcon->mydb_query("SELECT log_Content FROM blog WHERE log_ID='1'");
    $row=$dbcon->mydb_fetch_object($res);
    $content=$row->log_Content;    
}
echo 'fetch_object '.$times.' 次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$dbcon->mydb_free_results();
$dbcon->mydb_disconnect();

fnWriteCache('test.txt',$content);

echo '直接讀文件測試結果:<br/>';

//---------------------------------
$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $content = fnGetContent('test.txt');
}
echo 'file_get_contents直接讀'.$times.'次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';
//---------------------------------

$begin=fnGetMicroTime();
for($i=0;$i<$times;$i++)
{
    $fname = 'test.txt';
    if(file_exists($fname))
    {
        $fp=fopen($fname,"r");//flock($fp,LOCK_EX);        
        $file_data=fread($fp, filesize($fname));//rewind($fp);       
        fclose($fp);
    }
    $content = fnGetContent('test.txt');
}    
echo 'fopen直接讀'.$times.'次時間:<font color=red>'.(fnGetMicroTime()-$begin).'</font>秒<br/>';

4K大小數據的查詢結果:

fetch_row 100000 次時間:16.737720012665秒

fetch_array 100000 次時間:16.661195993423秒

fetch_object 100000 次時間:16.775065898895秒

直接讀文件測試結果:

file_get_contents直接讀100000次時間:5.4631857872009秒

fopen直接讀100000次時間:11.463611125946秒

整形ID查詢結果:

fetch_row 100000 次時間:12.812072038651秒

fetch_array 100000 次時間:12.667390108109秒

fetch_object 100000 次時間:12.988099098206秒

直接讀文件測試結果:

file_get_contents直接讀100000次時間:5.6616430282593秒

fopen直接讀100000次時間:11.542816877365秒

測試結論:

1、直接讀文件相比數據庫查詢效率更勝一籌而且文中還沒算上連接和斷開的時間

2、一次讀取的內容越大,直接讀文件的優勢會越明顯(讀文件時間都是小幅增長,這跟文件存儲的連續性和簇大小等有關係),這個結果恰恰跟天緣預料的相反,說明MYSQL對更大文件讀取可能又附加了某些操作(兩次時間增長了近30%),如果只是單純的賦值轉換應該是差異偏小纔對。

3、寫文件和INSERT幾乎不用測試就可以推測出,數據庫效率只會更差。

4、很小的配置文件如果不需要使用到數據庫特性,更加適合放到獨立文件裏存取,無需單獨創建數據表或記錄,很大的文件比如圖片、音樂等採用文件存儲更爲方便,只把路徑或縮略圖等索引信息放到數據庫裏更合理一些。

5、PHP上如果只是讀文件,file_get_contents比fopen、fclose更有效率,不包括判斷存在這個函數時間會少3秒左右。

6、fetch_row和fetch_object應該是從fetch_array轉換而來的,天緣沒看過PHP的源碼,單從執行上就可以說明fetch_array效率更高,這跟網上的說法似乎相反。

實際上在做這個試驗之前,從個人經驗判斷就有了大概的結果,測試完成後則有種豁然開朗的感覺。假定在程序效率和關鍵過程相當且不計入緩存等措施的條件下,讀寫任何類型的數據都沒有直接操作文件來的快,不論MSYQL過程如何,最後都要到磁盤上去讀這個“文件”(記錄存儲區等效),所以當然這一切的前提是隻讀內容,無關任何排序或查找操作。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章