聽歌識曲--用python實現一個音樂檢索器


訪問flyai.club,一鍵創建你的人工智能項目



作者 | 唯心不易@博客園

http://www.cnblogs.com/chuxiuhong/p/6063602.html

聽歌識曲,顧名思義,用設備“聽”歌曲,然後它要告訴你這是首什麼歌。而且十之八九它還得把這首歌給你播放出來。這樣的功能在QQ音樂等應用上早就出現了。我們今天來自己動手做一個自己的聽歌識曲

我們設計的總體流程圖很簡單:


錄音部分

我們要想“聽”,就必須先有錄音的過程。在我們的實驗中,我們的曲庫也要用我們的錄音代碼來進行錄音,然後提取特徵存進數據庫。我們用下面這樣的思路來錄音


# coding=utf8import waveimport pyaudioclass recode():
    def recode(self, CHUNK=44100, FORMAT=pyaudio.paInt16, CHANNELS=2, RATE=44100, RECORD_SECONDS=200,
               WAVE_OUTPUT_FILENAME="record.wav"):
        '''        :param CHUNK: 緩衝區大小        :param FORMAT: 採樣大小        :param CHANNELS:通道數        :param RATE:採樣率        :param RECORD_SECONDS:錄的時間        :param WAVE_OUTPUT_FILENAME:輸出文件路徑        :return:        '''
        p = pyaudio.PyAudio()
        stream = p.open(format=FORMAT,
                        channels=CHANNELS,
                        rate=RATE,                        input=True,
                        frames_per_buffer=CHUNK)
        frames = []        for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
            data = stream.read(CHUNK)
            frames.append(data)
        stream.stop_stream()
        stream.close()
        p.terminate()
        wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
        wf.setnchannels(CHANNELS)
        wf.setsampwidth(p.get_sample_size(FORMAT))
        wf.setframerate(RATE)
        wf.writeframes(''.join(frames))
        wf.close()if __name__ == '__main__':
    a = recode()
    a.recode(RECORD_SECONDS=30, WAVE_OUTPUT_FILENAME='record_pianai.wav')

我們錄完的歌曲是個什麼形式?

如果只看一個聲道的話,他是一個一維數組,大概長成這個樣子

我們把他按照索引值爲橫軸畫出來,就是我們常常看見的音頻的形式。


音頻處理部分

我們在這裏要寫我們的核心代碼。關鍵的“如何識別歌曲”。想想我們人類如何區分歌曲? 是靠想上面那樣的一維數組嗎?是靠歌曲的響度嗎?都不是。

我們是通過耳朵所聽到的特有的頻率組成的序列來記憶歌曲的,所以我們想要寫聽歌識曲的話,就得在音頻的頻率序列上做文章。

複習一下什麼是傅里葉變換。博主的《信號與系統》的課上的挺水,不過在課上雖然沒有記下來具體的變換形式,但是感性的理解還是有的。

傅里葉變換的實質就是把時域信號變換成了頻域信號。也就是原本X,Y軸分別是我們的數組下標和數組元素,現在變成了頻率(這麼說不準確,但在這裏這樣理解沒錯)和在這個頻率上的分量大小。


上面兩幅圖來自知乎,非常感謝Heinrich寫的文章(http://daily.zhihu.com/story/3935067)

怎麼理解頻域這個事情呢?對於我們信號處理不是很懂的人來說,最重要的就是改變對音頻的構成的理解。我們原來認爲音頻就是如我們開始給出的波形那樣,在每一個時間有一個幅值,不同的幅值序列構成了我們特定的聲音。而現在,我們認爲聲音是不同的頻率信號混合而成的,他們每一個信號都自始至終存在着。並且他們按照他們的投影分量做貢獻。

讓我們看看把一首歌曲轉化到頻域是什麼樣子?

我們可以觀察到這些頻率的分量並不是平均的,差異是非常大的。我們可以在一定程度上認爲在圖中明顯凸起的峯值是輸出能量大的頻率信號,代表着在這個音頻中,這個信號佔有很高的地位。於是我們就選擇這樣的信號來提取歌曲的特徵。

但是別忘了,我們之前說的可是頻率序列,傅里葉變換一套上,我們就只能知道整首歌曲的頻率信息,那麼我們就損失了時間的關係,我們說的“序列”也就無從談起。所以我們採用的比較折中的方法,將音頻按照時間分成一個個小塊,在這裏我每秒分出了40個塊。

在這裏留個問題:爲什麼要採用小塊,而不是每秒一塊這樣的大塊?

我們對每一個塊進行傅里葉變換,然後對其求模,得到一個個數組。我們在下標值爲(0,40),(40,80),(80,120),(120,180)這四個區間分別取其模長最大的下標,合成一個四元組,這就是我們最核心的音頻“指紋”。

我們提取出來的“指紋”類似下面這樣

(39, 65, 110, 131), (15, 66, 108, 161), (3, 63, 118, 146), (11, 62, 82, 158), (15, 41, 95, 140), (2, 71, 106, 143), (15, 44, 80, 133), (36, 43, 80, 135), (22, 58, 80, 120), (29, 52, 89, 126), (15, 59, 89, 126), (37, 59, 89, 126), (37, 59, 89, 126), (37, 67, 119, 126)

音頻處理的類有三個方法:載入數據,傅里葉變換,播放音樂。

如下:

# coding=utf8import osimport reimport waveimport numpy as npimport pyaudioclass voice():
    def loaddata(self, filepath):
        '''        :param filepath: 文件路徑,爲wav文件        :return: 如果無異常則返回True,如果有異常退出並返回False        self.wave_data內儲存着多通道的音頻數據,其中self.wave_data[0]代表第一通道        具體有幾通道,看self.nchannels        '''
        if type(filepath) != str:            raise TypeError, 'the type of filepath must be string'
        p1 = re.compile('\.wav')        if p1.findall(filepath) is None:            raise IOError, 'the suffix of file must be .wav'
        try:
            f = wave.open(filepath, 'rb')
            params = f.getparams()            self.nchannels, self.sampwidth, self.framerate, self.nframes = params[:4]
            str_data = f.readframes(self.nframes)            self.wave_data = np.fromstring(str_data, dtype=np.short)            self.wave_data.shape = -1, self.sampwidth            self.wave_data = self.wave_data.T
            f.close()            self.name = os.path.basename(filepath)  # 記錄下文件名
            return True
        except:            raise IOError, 'File Error'

    def fft(self, frames=40):
        '''        整體指紋提取的核心方法,將整個音頻分塊後分別對每塊進行傅里葉變換,之後分子帶抽取高能量點的下標        :param frames: frames是指定每秒鐘分塊數        :return:        '''
        block = []
        fft_blocks = []        self.high_point = []
        blocks_size = self.framerate / frames  # block_size爲每一塊的frame數量
        blocks_num = self.nframes / blocks_size  # 將音頻分塊的數量
        for i in xrange(0, len(self.wave_data[0]) - blocks_size, blocks_size):
            block.append(self.wave_data[0][i:i + blocks_size])
            fft_blocks.append(np.abs(np.fft.fft(self.wave_data[0][i:i + blocks_size])))            self.high_point.append((np.argmax(fft_blocks[-1][:40]),
                                    np.argmax(fft_blocks[-1][40:80]) + 40,
                                    np.argmax(fft_blocks[-1][80:120]) + 80,
                                    np.argmax(fft_blocks[-1][120:180]) + 120,                                    # np.argmax(fft_blocks[-1][180:300]) + 180,
                                    ))    def play(self, filepath):
        '''        音頻播放方法        :param filepath:文件路徑        :return:        '''
        chunk = 1024
        wf = wave.open(filepath, 'rb')
        p = pyaudio.PyAudio()        # 打開聲音輸出流
        stream = p.open(format=p.get_format_from_width(wf.getsampwidth()),
                        channels=wf.getnchannels(),
                        rate=wf.getframerate(),
                        output=True)        # 寫聲音輸出流進行播放
        while True:
            data = wf.readframes(chunk)            if data == "": break
            stream.write(data)
        stream.close()
        p.terminate()if __name__ == '__main__':
    p = voice()
    p.play('the_mess.wav')    print p.name

這裏面的self.high_point是未來應用的核心數據。列表類型,裏面的元素都是上面所解釋過的指紋的形式。


數據存儲和檢索部分

因爲我們是事先做好了曲庫來等待檢索,所以必須要有相應的持久化方法。我採用的是直接用mysql數據庫來存儲我們的歌曲對應的指紋,這樣有一個好處:省寫代碼的時間

我們將指紋和歌曲存成這樣的形式:

順便一說:爲什麼各個歌曲前幾個的指紋都一樣?(當然,後面肯定是千差萬別的)其實是音樂開始之前的時間段中沒有什麼能量較強的點,而由於我們44100的採樣率比較高,就會導致開頭會有很多重複,別擔心。

我們怎麼來進行匹配呢?我們可以直接搜索音頻指紋相同的數量,不過這樣又損失了我們之前說的序列,我們必須要把時間序列用上。否則一首歌曲越長就越容易被匹配到,這種歌曲像野草一樣瘋狂的佔據了所有搜索音頻的結果排行榜中的第一名。而且從理論上說,音頻所包含的信息就是在序列中體現,就像一句話是靠各個短語和詞彙按照一定順序才能表達出它自己的意思。單純的看兩個句子裏的詞彙重疊數是完全不能判定兩句話是否相似的。我們採用的是下面的算法,不過我們這只是實驗性的代碼,算法設計的很簡單,效率不高。建議想要做更好的結果的同學可以使用改進的DTW算法。

我們在匹配過程中滑動指紋序列,每次比對模式串和源串的對應子串,如果對應位置的指紋相同,則這次的比對相似值加一,我們把滑動過程中得到的最大相似值作爲這兩首歌的相似度。

舉例:

曲庫中的一首曲子的指紋序列:[fp13, fp20, fp10, fp29, fp14, fp25, fp13, fp13, fp20, fp33, fp14]

檢索音樂的指紋序列: [fp14, fp25, fp13, fp17]

比對過程:








最終的匹配相似值爲3

存儲檢索部分的實現代碼

# coding=utf-8import osimport MySQLdbimport my_audioclass memory():
    def __init__(self, host, port, user, passwd, db):
        '''        初始化的方法,主要是存儲連接數據庫的參數        :param host:        :param port:        :param user:        :param passwd:        :param db:        '''
        self.host = host        self.port = port        self.user = user        self.passwd = passwd        self.db = db    def addsong(self, path):
        '''        添加歌曲方法,將歌曲名和歌曲特徵指紋存到數據庫        :param path: 歌曲路徑        :return:        '''
        if type(path) != str:            raise TypeError, 'path need string'
        basename = os.path.basename(path)        try:
            conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db,
                                   charset='utf8')        except:            print 'DataBase error'
            return None
        cur = conn.cursor()
        namecount = cur.execute("select * from fingerprint.musicdata WHERE song_name = '%s'" % basename)        if namecount > 0:            print 'the song has been record!'
            return None
        v = my_audio.voice()
        v.loaddata(path)
        v.fft()
        cur.execute("insert into fingerprint.musicdata VALUES('%s','%s')" % (basename, v.high_point.__str__()))
        conn.commit()
        cur.close()
        conn.close()    def fp_compare(self, search_fp, match_fp):
        '''        :param search_fp: 查詢指紋        :param match_fp: 庫中指紋        :return:最大相似值 float        '''
        if len(search_fp) > len(match_fp):            return 0
        max_similar = 0
        search_fp_len = len(search_fp)
        match_fp_len = len(match_fp)        for i in range(match_fp_len - search_fp_len):
            temp = 0
            for j in range(search_fp_len):                if match_fp[i + j] == search_fp[j]:
                    temp += 1
            if temp > max_similar:
                max_similar = temp        return max_similar    def search(self, path):
        '''        搜索方法,輸入爲文件路徑        :param path: 待檢索文件路徑        :return: 按照相似度排序後的列表,元素類型爲tuple,二元組,歌曲名和相似匹配值        '''
        #先計算出來我們的音頻指紋
        v = my_audio.voice()
        v.loaddata(path)
        v.fft()        #嘗試連接數據庫
        try:
            conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db,
                                   charset='utf8')        except:            raise IOError, 'DataBase error'
        cur = conn.cursor()
        cur.execute("SELECT * FROM fingerprint.musicdata")
        result = cur.fetchall()
        compare_res = []        for i in result:
            compare_res.append((self.fp_compare(v.high_point[:-1], eval(i[1])), i[0]))
        compare_res.sort(reverse=True)
        cur.close()
        conn.close()        print compare_res        return compare_res    def search_and_play(self, path):
        '''        搜索方法順帶了播放方法        :param path:文件路徑        :return:        '''
        v = my_audio.voice()
        v.loaddata(path)
        v.fft()        try:
            conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db,
                                   charset='utf8')        except:            print 'DataBase error'
            return None
        cur = conn.cursor()
        cur.execute("SELECT * FROM fingerprint.musicdata")
        result = cur.fetchall()
        compare_res = []        for i in result:
            compare_res.append((self.fp_compare(v.high_point[:-1], eval(i[1])), i[0]))
        compare_res.sort(reverse=True)
        cur.close()
        conn.close()        print compare_res
        v.play(compare_res[0][1])        return compare_resif __name__ == '__main__':
    sss = memory('localhost', 3306, 'root', '', 'fingerprint')
    sss.addsong('taiyangzhaochangshengqi.wav')
    sss.addsong('beiyiwangdeshiguang.wav')
    sss.addsong('xiaozezhenger.wav')
    sss.addsong('nverqing.wav')
    sss.addsong('the_mess.wav')
    sss.addsong('windmill.wav')
    sss.addsong('end_of_world.wav')
    sss.addsong('pianai.wav')

    sss.search_and_play('record_pianai.wav')

總結

我們這個實驗很多地方都很粗糙,核心的算法是從shazam公司提出的算法吸取的“指紋”的思想。希望讀者可以提出寶貴建議。

—  End —


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章