原创 darknet + yolo3 訓練自己的數據集

2018年年中的時候,一不小心接觸到了物體檢測屆的一位佼佼者,一階段檢測框架yolo,於是花了幾個月研究並記錄下來。直到最近,在工作上要用到物體檢測,我第一反應就是yolo3,於是把訓練的步驟和過程詳細記錄下來,給各位分享分享。 首先,如

原创 keras-bert 分類實戰,代碼重構

久仰bert大名,終於痛下殺手對bert做一個從肉體到精神上的深入探究和了解 在參觀了 https://github.com/google-research/bert和https://github.com/CyberZHG/keras-b

原创 三維視圖詳解keras.permute_dimensions和numpy.transpose轉置效果

二維的轉置大家都很熟悉,橫軸變縱軸嘛, 1 2 3                                1 4 7 4 5 6    轉一下變成       2 5 8 7 8 9                        

原创 源碼剖析transformer、self-attention(自注意力機制)原理!

首先給大家引入一個github博客,這份代碼是我在看了4份transformer的源碼後選出來的,這位作者的寫法非常易懂,代碼質量比較高。https://github.com/Separius/BERT-keras 這篇文章主要跟大家分享

原创 ubuntu系統一鍵搭建hadoop+hdfs+spark+yarn

先上自己寫的兩個腳本吧 https://github.com/yfyvan/bigdata_deploy   在介紹腳本用法之前,咱們先看看一些配置   一:hadoop (1)etc/hadoop/core-site.xml <con

原创 四圖秒懂BN、LN和IN

DL常見的三大網絡類型,CNN、RNN和GAN,CNN用於CV領域較多,RNN則用於NLP方向較多,GAN就比較特殊,娛樂向的CV。而其中,最常用、最高效的三個技術點就是BN、LN和IN了,他們是三種網絡的典型代表作。   1、BN(Ba

原创 一問帶你看懂循環神經網絡小黑匣內部結構——LSTM

今天給大家分享分享循環神經網絡(以LSTM爲研究對象)的內部計算邏輯,本次博客從keras源碼,並結合一位博主的博客對其進行詳細剖析。博客:https://www.cnblogs.com/wangduo/p/6773601.html?ut

原创 詞句相似度計算——餘弦相似度

餘弦相似度,是一種通過判斷兩個向量的夾角來判斷其相似性的數學方法。 舉個栗子: A:中國工商銀行北京分部北京支行 B:中國招商銀行廣西分部桂林支行 我們用“餘弦相似度”的辦法來判斷這兩個句子的相似性 1、分詞! 第一步要做的肯定是分詞,把

原创 sql轉nosql的第一件事:能不能實現複雜計算邏輯——MongoDB

公司開始要把部分業務轉到NoSQL上,並且決定開始使用mongodb作爲技術棧,於是花了兩天時間搭建服務、學習語法,以下給大家分享一些關係型數據庫sqlserver在非關係型數據庫mongodb的一些複雜語句的實現。   首先,假設我們有

原创 frcnn和yolo3損失函數詳解

在分享了yolo3的庖丁解牛版後,陸續有一些小夥伴發來信息說,損失函數講的太簡單了 - -,各位大哥,我錯了,現在把yolo3的損失函數重新一點一點刨開,同時預先對接下來要分享的faster rcnn中的損失函數部分一起,提前跟大家一定一

原创 GAN與CycleGAN的結構解析

當下神經網絡三大主流子領域:CNN、RNN和GAN。 今天咱們主要分享一下生成對抗網絡——GAN的一些核心思想,並以CycleGAN爲例進行闡述。 借自:https://github.com/eriklindernoren/Keras-G

原创 深度學習之——可分離卷積

前段時間keras做了一些更新,我在源碼裏發現了幾個小更新,其中我挑了一兩個比較重要的更新點,跟大家分享分享。 1、SeparableConv2D   深度可分離卷積是Inception網絡結構裏的經典用法。在卷積網絡中,無外乎兩個探索點

原创 層層逼近,瞭解Norm系需要解決的問題及其衍生變體

引自: https://zhuanlan.zhihu.com/p/33173246 https://blog.csdn.net/xiao_lxl/article/details/72730000 https://github.com/sw

原创 卷積神經網絡新姿勢(2)——其他

最近看着這些新姿勢,一不小心就到大半夜了,所以這裏不一一細說了,把一些我認爲很有潛力或者優勢的新姿勢給大家分享分享。 1、sinerelu ReLU函數的一個變體,對relu添加波動因子,在ReLU系,略優於其他   2、swish 對s

原创 卷積神經網絡新姿勢(1)——CosineConv2D(餘弦卷積)

最近在逛arxiv的時候,突然發現很多CNN領域的新秀,這裏給大家分享一個卷積過程的小鮮肉——CosineConv2D,雖然距離論文發表已經一年多了,但是這絕對是個好東西,並且在將來在某些方面應該是慢慢把常規卷積模塊給替代掉的。 先放論文