原创 計算廣告筆記05-搜索廣告與競價廣告

與合約廣告相比,競價交易模式的本質是將量的約束從交易過程中去除,僅僅採用“價高者得”的簡單決策方案來投放廣告。競價符合廣告精細化發展的趨勢,爲無法用合約售賣的剩餘流量找到了可能的變現渠道,使大量中小廣告主參與在線廣告的可能性和積極

原创 計算廣告筆記02-計算廣告基礎

廣告中的計算是爲了解決什麼問題,以及解決這些問題需要什麼樣的業務描述框架。 可衡量的效果以及相應的計算優化,是在線廣告區別於線下廣告的主要特點。 在大多數廣告產品中,可以通過計算優化的主要是收入部分,而千次展示期望收入(expec

原创 計算廣告筆記04-合約廣告

廣告位合約 廣告位合約是最早產生的在線廣告售賣方式。它指媒體和廣告主約定在某一時間段內某些廣告位上固定投放該廣告主的廣告,相應的結算方式爲CPT。這是一種典型的線下廣告投放模式,在互聯網廣告早期被採用。這種方式無法做到按受衆投放廣

原创 計算廣告筆記01-在線廣告綜述

在線廣告,也稱網絡廣告、互聯網廣告,指的是在線媒體上投放的廣告。與傳統廣告不同,在線廣告已經形成了以人羣爲投放目標、以產品爲導向的技術性投放模式。它不僅爲廣告主帶來了以準確接觸目標受衆爲方法論的全新營銷渠道,也爲互聯網免費產品和

原创 TF入門03-實現線性迴歸&邏輯迴歸

之前,我們介紹了TF的運算圖、會話以及基本的ops,本文使用前面介紹的東西實現兩個簡單的算法,分別是線性迴歸和邏輯迴歸。本文的內容安排如下: 實現線性迴歸 算法優化 實現邏輯迴歸 1. 線性迴歸 1.1 問題描述 我們將收集

原创 KMeans聚類算法分析以及實現

KMeans KMeans是一種無監督學習聚類方法, 目的是發現數據中數據對象之間的關係,將數據進行分組,組內的相似性越大,組間的差別越大,則聚類效果越好。 無監督學習,也就是沒有對應的標籤,只有數據記錄.通過KMeans聚類,可

原创 TF入門04-TF實現Word2Vec

Word2Vec是一組用來產生詞嵌入的模型,包括兩種主要的模型:skip-gram和CBOW。 Skip-gram vs CBOW 算法層面上, 兩種模型很相似,CBOW模型是從兩邊預測中心詞,skip-gram模型是中心詞預測

原创 [數據可視化]Pandas單變量畫圖

Pandas單變量畫圖 Bar Chat Line Chart Area Chart Histogram df.plot.bar() df.plot.line() df.plot.area() df.plot.

原创 TF入門05-實驗過程管理

主要內容爲: Name Scope Variable Scope 權重共享 tf.train.Saver tf.summary 控制實驗過程的隨機性 Autodiff(梯度計算) 1. Name Scope命名空間 Tens

原创 TF入門01-Graph&Session

這個系列主要是對TensorFlow進行學習,瞭解其內部機制、運行方法,最後能根據自己的想法構建模型。 本文主要的介紹內容是TensorFlow的Graph和Session兩個概念,即運算圖和會話。 1. 數據流圖 Tens

原创 TF入門02-TensorFlow Ops

本文的主要內容安排如下: 基本的操作 張量類型 導入數據 lazy loading 我們首先介紹一下TensorBoard的使用,然後介紹TensorFlow的基本ops,之後介紹張量的數據類型,最後介紹一下如何將自己的輸入導

原创 tf.reshape函數用法&理解

函數原型 函數接口: tf.reshape( tensor, shape, name=None ) 參數 tensor Tensor張量 shape Tensor張量,用於定義輸出張量的shape,組

原创 Softmax函數原理及Python實現

Softmax原理 Softmax函數用於將分類結果歸一化,形成一個概率分佈。作用類似於二分類中的Sigmoid函數。 對於一個k維向量z,我們想把這個結果轉換爲一個k個類別的概率分佈p(z)。softmax可以用於實現上述結果

原创 【DeepLearning.AI】使用numpy搭建卷積神經網絡

使用numpy搭建卷積神經網絡 主要內容來自DeepLearning.AI的卷積神經網絡 本文使用numpy實現卷積層和池化層,包括前向傳播和反向傳播過程。 在具體描述之前,先對使用符號做定義。 上標[I]表示神經網絡的第I

原创 從邏輯迴歸開始入門深度學習

從邏輯迴歸開始入門深度學習 本文主要來源於吳恩達《深度學習與神經網絡》。本文根據課程內容做一個串聯。 本文內容安排如下: 符號定義 邏輯迴歸LR:定義、實現、高效實現 淺層神經網絡(2層):實現、優化 深度神經網絡:實現、優