直播實錄|百度大腦EasyDL·NVIDIA專場 部署專家

EasyDL—Jetson Nano部署方案技術解析

時間:2020年5月28日
講師:百度AI開發平臺部高級研發工程師 川峯

【直播回放】
EasyDL-Jetson Nano部署方案技術解析與應用實戰:https://www.bilibili.com/video/BV1Rz411v7wS

【課程筆記】

課程大綱:
1. EasyDL專業版技術原理介紹
2. 訓練並部署模型到Jetson Nano演示

【EasyDL專業版技術原理介紹】
EasyDL是一個零門檻的AI開發平臺,目前發佈了三個版本:經典版、專業版和零售版。經典版是零算法基礎可以定製高精度AI模型,我們基本上使用鼠標點一點就可以獲取自己數據集訓練出來的模型,以及包含訓練模型和部署代碼的SDK,並且支持的AI任務比較多,像圖像分類、物體檢測、圖像分割、文本分類、聲音分類和視頻分類。專業版主要是面向AI開發者或企業用戶推出的AI模型訓練及服務平臺,也是提供了腳本調參功能,可以自定義超參和網絡的頭部結構,可深度定製自己的模型。最近我們也上了一個新的功能Notebook,提供了Notebook開發環境,大家可以完全從頭定製代碼,定製模型。零售版是專用於零售行業用戶,訓練商品檢測、貨架拼接的模型訓練平臺。
在這裏插入圖片描述
今天我們主要介紹EasyDL專業版的一些技術原理,包括也會用專業版演示如何從準備數據集開始訓練一個模型,以及獲取到SDK,到最後在Nano上完成部署。專業版支持腳本調參和Notebook,可深度調參和定製模型,並且支持飛槳Master模式。提供了基於百度海量數據集訓練的預訓練模型,加上EasyDL優秀的遷移學習的產業實踐,使得大家在專業版使用少量數據集就可以達到很好的訓練效果。目前專業版是支持了CV和NLP兩大任務,CV支持圖像分類和物體檢測,NLP支持文本分類,短文本匹配和序列化標註,提供了一系列的訓練模型。這裏是目前EasyDL專業版已經支持的部分模型,包括14類圖像分類和7種物體檢測算法,並且這個模型庫也是在不斷豐富,具體的大家可以去EasyDL官網查看相關技術文檔瞭解。
在這裏插入圖片描述
這一頁主要是講EasyDL專業版的技術框架圖。上層業務系統,是大家可以感受到的或者可以交互的,包括數據集管理、模型訓練、模型評估、模型校驗、模型發佈。再往下是深度學習工作流,支撐上層業務系統,有數據服務,提供了數據管理,智能標註和數據閉環。智能標註我一會也會用到,數據閉環的意思是在使用公有云API預測的時候,可以將API接口識別錯誤的圖片添加到指定的數據集並糾正結果,後續訓練模型的時候就可以增加包含接口數據的數據集,這樣就可以提升模型的效果。數據預處理這塊提供了數據增強的功能,包括手動和自動數據增強,後面我們會再講到一些細節。模型訓練稍微複雜一點,我這裏列了幾個功能點,包括遷移學習、分佈式訓練加速、自動超參調優、Auto DL Search和Anchor自適應調優。模型評估,有mAP,F1-score,精確率,召回率,平均精度。模型部署的部分也是支持了將模型發佈爲適配各種硬件形態的SDK,大致分爲這四大類,包括公有云部署,私有服務器部署,設備端通用SDK和專項硬件適配,大家可以根據自己的需要發佈。這一整套流程都是通過AI Workflow串起來的,並工作在深度學習平臺飛槳之上的。
在這裏插入圖片描述
數據的智能標註,這部分是提升效率的工具,使用智能標註可以只標註數據集一小部分,最低要求是每個標籤標註量不少於10張圖片,然後啓動智能標註,讓AI幫你標註,它會篩選出一些圖片,你直接確認就行了。爲什麼可以使用智能標註呢,我這裏舉個例子,比如我們有一個模型,是可以識別貓的模型,現在想加入新的圖片到訓練集當中,比如下面還有三張貓圖,什麼樣的圖片會對效果提升有幫助呢,顯然就是第二和第三張,因爲第一張和原有數據集的圖太相似了,對於提升模型的泛化能力不是很好,智能標註就是爲大家挑選出第二第三張這樣的圖片讓大家標註,第一張就是自動標註,節省標註成本。在流程上,就像剛纔說的,需要爲每個標籤至少標註10張以上的圖,然後啓動智能標註,其實後端會幫大家訓練一個模型,用這個模型在數據集標註的圖片進行識別,標註有問題的圖片會反饋回來進行人工標註,反覆多次迭代,剩下的數據可以一鍵標註或者大家手動結束這樣的流程。
在這裏插入圖片描述
EasyDL還對數據預處理提供了自動數據增強的功能,這裏有兩個問題,一個是如何在有限的樣本下提供更好的模型效果,要麼是優化模型,要麼就是使用數據增強。還有一個問題,如何構建與數據集特性強相關的數據增強策略呢,EasyDL專業版提供了自動增強的策略,以視覺訓練爲例,我們可以結合數據集的特性做一些,例如平移、旋轉、亮度調整和裁剪等操作,以生成新的圖加入數據集。比如這個貓,右邊的6個圖是對原數據的數據增強得到的新圖,這就可以達到更好的泛化能力。在現實場景中,我們可能會有一些在有限場景中拍攝的數據集,但是目標存在不同的條件,比如不同的方向、位置、亮度等等,這時候就可以通過額外合成數據向模型提供這些數據分佈,但是數據增強需要的配置參數非常多,像剛纔提到的調整的對比度、亮度以及縮放比例,具體調多少,參數太多了,組合起來的空間非常大,人工調參就需要很多的經驗,費時費力,所以我們就需要進行自動搜索數據增強的超參。EasyDL的數據增強也是提供了一系列的增強策略,用戶可以手動設置數據增強的超參,當然這個可能對用戶要求比較高,你需要對領域知識和數據特徵比較熟悉才行,不過也可以選擇自動數據增強,我們後端會根據大家的數據集的特徵和增強策略進行自動搜索,以產出一個最佳的增強參數,從而提升數據集的規模,來獲得更好的模型的性能。
在這裏插入圖片描述
這裏列出來的是EasyDL專業版的圖像分類和物體檢測支持的數據增強的策略,比如像剪切、平移、旋轉,調整對比度和亮度等等,物體檢測數據增強操作是多一點,主要是對標註框裏的物體做了一些處理。
在這裏插入圖片描述
接下來這張圖是使用數據增強和不使用數據增強的效果對比圖,黃色柱狀圖是使用了數據增強的,準確率還是有所提升的。
在這裏插入圖片描述
遷移學習。如果你想訓練一個深度學習的模型,從頭訓練模型通常需要大量的數據,但是數據其實並不容易獲得,包括採集、標註、算力等方面成本比較高,我們可以使用預訓練模型,在預訓練模型的基礎上重新調優,並利用預訓練模型以及學習到的知識來提高對另一項任務的泛化性,簡單說就是在大數據集預訓練的模型上進行小數據集的遷移,以獲得對新數據較好的識別效果。我們爲什麼要用遷移學習,正像剛纔說的,其中一個原因就是數據並不是很容易獲得的,也就是數據的稀缺性。還有一個就是算力要求高,通常從頭訓練一個模型至少需要幾天甚至幾周的時間,利用遷移學習就可以很快,可能只需要幾小時甚至幾十分鐘,在EasyDL通常就十幾分鍾就可以訓練出一個效果不錯的模型,原因就是EasyDL內置了基於百度海量數據集訓練的預訓練模型,再加上優秀的遷移學習工具,使得模型訓練效率高,效果也是不錯的。
在這裏插入圖片描述
在這裏插入圖片描述
然後是AutoDL,AutoDL就是用深度學習設計深度學習,硬件應用場景和模態的多樣化,使得AI算法的維度空間是非常大,想要儘可能探索這個空間就必然要從手工設計模型轉到自動化生產模型。所以,我們也是利用了深度強化學習設計模型,整個系統由兩部分組成,一個是網絡的編碼器,右邊這個是網絡評測器,編碼器負責設計網絡,然後交給評測器進行訓練和評估,評估就包括像準確率、模型大小在內的指標,然後反饋給編碼器再進行修改再次編碼,反覆迭代,經過若干次迭代最終就會得到設計好的模型。
在這裏插入圖片描述
在基於百度海量數據搜索出的網絡模型後,也可以通過AutoDL Transfer進行遷移訓練,在小數據集上進行finetune,這是經典網絡和AutoDL遷移學習的效果對比,效果還是有優勢的。同時EasyDL經典版也是開放了優秀的AutoDL預訓練模型供大家使用。
在這裏插入圖片描述
然後是自動超參調優,EasyDL模型訓練也支持自動超參調優。爲什麼要自動調參?因爲參數太多了,通常需要不斷的調整參數,不斷的迭代訓練來驗證,就是太費時費力了,所以EasyDL也是使用了自動超參調優的機制。比如右邊這張圖,有兩個併發進行了試驗,初始的時候超參和模型權重都相同,經過一定輪數的訓練以後,第二步就會進行對比,如果發現worker0的效果好就進行第三步,把worker0的權重和超參值複製給worker1,worker0本身接着訓練,不受影響,但是對worker1還要進行第四步,就是複製過來的權重和超參加入一些擾動,使它與worker0的參數有所差異,然後再繼續訓練,這就相當於在訓練過程中把worker1上的原始超參值過濾了,並在好的基礎上進行進一步的試驗,從而加快搜索效率。從試驗效果來看使用自動超參調優機制的模型在平均準確率上面也是有一定的優勢。
在這裏插入圖片描述
其實EasyDL的模型訓練使用了深度梯度壓縮機制,也就是DGC,飛槳是從1.6.2版本已經支持了DGC算法,加速比較明顯,大家可以看一下這個表格,右邊這個數據是在V100GPU統計的,在2機2卡統計下總訓練時間是從520秒縮短到了74秒。
在這裏插入圖片描述
EasyDL專業版還有多個即將上線新功能,大家可以關注一下,包括Anchor自適應優化,可能大多數用戶不知道怎麼設置,我們會加入Anchor的優化機制,根據用戶數據集特徵自動計算出合適的aspect ratios。
在這裏插入圖片描述
EasyDL模型深度定製是通過腳本調參Notebook的方式實現的,剛纔我們也提到過。腳本調參的形式是將模型的超參配置和網絡的頭部定義函數都暴露給大家,比如像這裏的自定義layer和loss函數都是可以自定義,右邊包括batchsize,輸入尺寸,學習率衰減,都可以根據自己的數據集調整,這是腳本調參。
在這裏插入圖片描述
還有一個是Notebook,Notebook是我們前不久剛上線的一項功能,也是基於自研的深度學習平臺飛槳提供端到端的訓練方案,並且提供了高性能大顯存的V100顯卡,數據集也是和專業版打通,大家使用Notebook可以從頭完全定製代碼,訓練出來模型可以發佈並且部署到雲端。它的使用流程也不復雜,這塊我不深入講了,大家可以自行探索一下。
在這裏插入圖片描述
在這裏插入圖片描述
EasyDL的模型部署也是非常豐富,大致分爲四大類,包括公有云部署,私有服務器部署,通用設備端SDK,以及軟硬一體產品。這邊列出了目前EasyDL支持的一些芯片和操作系統,大家可以看到,我們支持了10餘類的芯片和4大類的操作系統。這個標紅的地方就是對Jetson Nano的支持,除此之外我們也支持X86平臺的GPU,大家可以體驗一下。
在這裏插入圖片描述
在這裏插入圖片描述
軟硬一體剛纔我們講到部署方式,EasyDL四大類,其中一個是軟硬一體方案。軟硬一體方案目前支持兩個系列的產品,一個是EdgeBoard系列,包括計算盒,計算卡和加速卡,它們價格各不相同,功能和性能也各不相同,大家可以根據自己的業務需求進行選擇。這裏也有EasyDL模型實測性能,大家可以通過掃碼瞭解一下詳情,也可以到EasyDL的官網瞭解。
在這裏插入圖片描述
另一個系列是Jetson軟硬一體方案,目前支持Jetson Nano Jetson TX2和Jetson AGX Xavier,算力也是非常強勁,昨天有人問EasyDL模型和SDK在Jetson上跑用的CPU還是GPU,肯定是用GPU,不然很難發揮它的優勢。我們這邊就是對圖片的處理和推理預測都是做了優化和加速的,速度非常快的,比如像EasyDL-Jetson AGX Xavier,跑EasyDL圖像分類可以達到幾毫秒的速度。
在這裏插入圖片描述
講了這麼多,EasyDL究竟長什麼樣子,定製模型應該怎麼做呢,我訓練完模型以後發佈爲SDK,我拿到SDK了怎麼在Nano上跑起來,今天通過解決一個車輛和人物識別的任務進行全流程的演示。
在這裏插入圖片描述
剛纔我們說要解決車輛和人物識別的任務,其實大致流程可以分爲三步,我今天會使用EasyDL專業版腳本調參訓練一個模型。大致就是準備數據集,車輛和行人的識別數據集,然後去EasyDL專業版訓練一個模型,最後發佈爲SDK並下載到Nano上使用。
在這裏插入圖片描述
首先第一步就是先準備數據集,我的數據集是我自己收集了一些行車場景和騎行場景,以及步行場景的城市街景視頻,我是抽幀成了很多圖片,但是我得到這些圖片要篩選。因爲是抽幀的,肯定存在很多圖片相似度太高的以及模糊的圖片怎麼辦。所以我使用了EasyData數據清洗和智能標註的功能,清洗了一些模糊的圖片,也減輕了我標註的工作量。
在這裏插入圖片描述
立即訪問EasyData:https://ai.baidu.com/easydata/

在EasyData的主頁,下拉可以看到數據服務-數據清洗,點擊瞭解詳情即可。進入後,可以點擊【新建清洗任務】,可以進入到清洗方式的選擇。在選擇清洗方式時,最多可以同時選擇三種清洗方式。
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在數據準備好、並訓練好模型之後,可以在部署方式中選擇專項硬件的適配。之後在審覈通過之後可以在【服務詳情】-【下載鏈接】處下載SDK。
之後把SDK放到Nano中進行部署。首先連接Nano,我們解壓SDK後,得到兩個文件:CPP和RES,RES裏是模型文件,CPP就是SDK,解壓一下看看,提供了三個DEMO,有serving的,可以起一個簡單的服務,大家可以在瀏覽器裏輸入相應的地址,可以體驗到和H5差不多的效果。Multi_thread是支持多線程的預測,如果大家有需求可以看一下。還有batch inference,可以支持單張圖片預測或多張圖片預測,我們編譯一下看看。編譯之前要填寫一個序列號,我們要使用batch inference預測,需要設置一下序列號。先看一下代碼結構,這個函數非常簡單,首先是設置序列號,然後有一個config,在這裏進行參數的配置,包括模型的路徑,支持的最大batchsize,我這裏設置8,意思是下次預測可以使用小於等於8張圖片預測。併發量,指的是可以支持最大的線程數,如果跑單線程可以設置成1,如果設置比較大會佔用資源。FP16就是你要不要用FP16預測。config設置完了以後,創建一個predictor,然後init,整個環境已經準備好了,之後就可以調用infer進行預測。

整體簡單來說可以分爲四個步驟:

  1. 設置序列號
  2. 配置
  3. 創建一個predictor並將它init
  4. 最後進行infer

在這裏插入圖片描述
在這裏插入圖片描述
先設置序列號。Batchsize可以設小一點,比如我們設置成2,保存,然後開始編譯。有三個文件,產出也有三個,我們使用batch inference預測一下,它有兩個參數,一個是模型的路徑,還有一個是圖片的名字或者圖片的路徑,因爲是支持batch預測的,它會把路徑下面所有的圖片進行預測(需保證路徑下只有圖片)。我先預測一張。這個時候可以看到,在優化模型,你第一次使用可能比較慢,後面再跑就比較快。當然你也可以在剛纔的cofig一個選項,設置你是不是每次都要優化模型,因爲我設置的1,意味着只優化一次,下次如果再有就直接使用。

這裏有一個error是什麼呢,是鑑權的問題,因爲我沒有聯網,所以大家首次使用的時候一定要聯網。Nano性能還是不比TX2和Xavier,我現在使用的Nano,是通過網線連接到了電腦,所以沒有網絡訪問權限,當然你也可以設置一個代理。預測結果出來之後,demo裏有一個註釋的代碼,打開後可以把結果的圖片保存。因爲我剛纔提到這個過程,如果有這個提示,說明它正在編譯模型,這個過程確實非常慢,如果編譯好以後再次運行就比較快了,我們再運行一次。很快就出來了,當然如果實際的預測,init這個過程不需要每次都跑的,直接infer的話預測速度更快一些。在這裏會有一個圖片保存在這裏,我們看一下識別的結果。
在這裏插入圖片描述
這個是它的識別結果,這是一個單圖的預測。我們剛纔提到可以指定一個文件夾,我把剛纔生成的結果圖片刪掉,這裏有兩張圖片的,我們看看預測文件夾會怎麼樣,它會把兩張圖片的結果都打印出來,結果保存在這裏,這就是Nano的預測過程。

其實大家可以看到,從我下載SDK到現在運行起來,我也沒有寫代碼,就填了一個序列號,我們這個SDK已經做的非常簡便,包括batch的預測,都是非常簡便,接口也是非常簡單,就是init和infer兩個。剛纔我們提到還有一個serving,這個是起HTTP的服務,起來以後可以通過端口在瀏覽器裏輸入,打開頁面上傳圖片,和我們剛纔演示的是一樣的。看一下吧,它需要的參數,模型路徑,序列號,服務地址,端口,後面使用默認的。這個時候再重新編譯模型,還需要等會,第一次使用確實是需要編譯模型。

如果使用Nano需要先準備它的運行環境,我們推薦是使用SD Card Image,Host上下載安裝並安裝Etcher,如果用過Nano比較簡單,如果是TX2和Xavier就稍微麻煩一些,可能需要使用SDK Manager來安裝,當然Nano也可以使用這個工具安裝,推薦大家安裝這個JetPack4.2.2。流程就是這麼簡單。

這裏貼出的是config的配置結構體,這是支持的配置參數,包括模型的名字以及緩存的名字,以及工作空間大小的設置,以及你想支持的最大的batchsize。Device ID不用設置,在使用X86平臺的多卡GPU時纔會使用這個。編譯選項,就是我剛纔設置爲1,意思就是我有歷史編譯的模型可以直接使用,不需重新編譯。這個是支持最大的併發量,這裏是是否使用FP16預測。

【Q&A】
Q:有同學問合作的板子和正常板子價格一樣嗎。

A:我們合作的板子是限量直降,全網最低的價格。

Q:超參自動搜索用的是什麼算法?
A:剛纔PPT裏已經講到了,如果有興趣可以看一下回放,查一下我裏面提到的幾種算法。

Q:運行部署模型花錢嗎?
A:運行部署不會花錢,比如軟硬一體授權一個license,SDK是隨便使用不會再收錢的,只會收授權的費用。

Q:模型下載下來可以自己調用嗎?咱們模型支持下載下來嗎?
A:是支持下載,就是我剛纔說的SDK包括兩個部分,包括在Nano上演示的時候,可以看到有CPP目錄和RES目錄,RES就是你訓練的模型 。

Q:NX支持EasyDL的SDK嗎?
A:這個是比較新的套件,理論上是支持的,但爲什麼沒有寫上去,因爲我們也要深度適配一下,不久會上到線上,大家可以關注一下。大家也可以在百度AI市場搜索查看。

Q:套件需要神經計算棒嗎?
A:Nano和Xavier和TX2不需要神經計算棒,神經計算棒跟這個不是太相關,它也是一種計算型的硬件,用來加速。

Q:EasyData清洗收費嗎?
A:清洗不收費。比如視頻抽幀可以使用清洗的功能,以及智能標註。

Q:現在支持多人標註嗎?
A:多人標註的話,在羣裏問一下吧,據我所知是支持的。

Q:模型可以在本地進行訓練嗎?
A:本地目前還不行,目前都是在雲端訓練的。

Q:增強好的數據可以下載嗎?
A:數據增強我理解應該只是一個策略,數據集並不會真實的擴充,你下載下來還是原始的數據集,但是具體能不能擴充到你的數據集,以及能不能下載,如果真的需要可以提一個工單,我們會評估一下。
好,提示一下開發者,大家要善用提交工單的功能,EasyDL遇到一些問題的時候,可以提交工單輸入你的問題,研發老師就會爲您解答。

Q:EasyDL底層是哪個框架?
A:底層框架,現在EasyDL都是基於飛槳深度學習平臺的,其實現在飛槳這個生態已經非常好了,各種工具也比較齊全,我們底層平臺都是用飛槳。

Q:TX2的torchvision最高的版本是多少?
A:其實這個版本是要看TX2上用的是JetPack版本是什麼,JetPack每個版本支持的最高版本的torchvision都是不一樣的,所以說我建議大家到官網上看一下,隨後我可以把這部分的鏈接發到羣裏,大家看一下自己使用的JetPack是哪個版本,上面都有支持到最高版本的相關說明。

Q:如何通過筆記本遠程訪問Jetson Nano?
A:你只需要拿個網線把Nano連到你的電腦,然後登錄到Jetson Nano,你可以設置一個固定的IT地址,在電腦設置上配置一下路由器和IP地址,跟它一個網段就可以,然後連接到你的Nano上,我剛纔就是這麼幹的。

Q:其他框架的模型能不能也用Nano部署?
A:其他框架當然可以,但是你的部署成本可能會比較高,不像EasyDL,像圖片的預處理和底層的推理都做好了,封裝的接口已經非常簡單了,當然你自己做可以,就是複雜一些,答案是支持的。

Q:是不是Nano剛開始使用是否需要做系統,能否簡單展示一下?
A:需要做系統,Nano需要先刷機。有兩種方法,一種是直接拿SD卡往裏寫Image,這個在網上都能直接下到,也有一個工具,大家可以到NVIDIA相應的網站上看到教程,就幾步很簡單,下載一個工具,加載硬件,然後插到板子上開機就行了。另一種方式就是用SDK Manager。
具體刷機的流程和方式,可以看一下NVIDIA官網,上面有具體的介紹。

Q:有同學問訓練模型能和別的框架模型互相轉化嗎?
A:目前沒有提供這種功能,因爲我們訓練的模型已經是深度定製了,包括集成SDK,拿來即用,目前是沒有提供往其他框架轉,當然Paddle本身是支持往其他框架轉,比如Paddle2onnx或x2paddle工具。

Q:視頻流預測部署應該怎麼做?
A:視頻流的可以關注明天的deepstream課程,就是講視頻流這塊,你一定要收聽一下。剛纔我做的視頻流用的不是deepstream,而是通過調用HTTP服務地址做預測,就是這樣。

Q:應該是SDK只支持一個模型還是適用於多個模型?
A:如果你是EasyDL訓練的話,其實可以跑多個模型,但是它是和模型綁定的,不建議你這麼做,每次訓練一個模型建議你下載一個SDK,這樣不會出現什麼問題。

Q:Nano支持VMX嗎?
A:我理解你是想用LinuxARM跑VMX,首先你要確定openvino是否能在Nano上編譯的出來,如果可以,你可以嘗試。SDK的話我們後續會有,可以保持關注。

Q: EasyData數據會共享嗎?
A:不會。

Q:編程可以用python的方式嗎?
A::目前就只有C++版本,如果用python可以像我剛纔的,起HTPP服務,通過python代碼調用這個接口,這是一個方式。

Q:有沒有行爲識別的例子,昨天是不是有行爲識別DEMO的例子。
A:是的,昨天雲原生的技術有一個。

Q:EasyDL上面可以做一個行爲識別嗎?
A:目前還不行,像經典版我提到有一些分類、檢測、分割的任務,專業版提供的是分類和檢測,如果做行爲識別要在這些任務基礎上看你怎麼寫邏輯實現。

Q:有同學問Nano支持同時跑多個EasyDL的模型嗎?
A:我不建議你這麼做,爲什麼,因爲Nano的性能本身有限,如果跑多個模型會非常慢。

Q:如果這樣是不是還是使用TX2或者Xavier好一些。
A:對,使用Xavier是最好的。

Q:Nano支持POE嗎,電流多大?
A:所有的信息在我們的官網上都有,非常詳細的信息,大家可以到官網上找到你感興趣的Jetson的平臺,比如Nano裏就有所有的配置信息,包括電源信息、接口信息都有。
好。大家如果對Nano電流和接口信息感興趣可以訪問一下NVIDIA官網,上面有一張大表,記錄各種細節的信息。

Q:Nano安裝EasyDL SDK以後,通過接口這樣的開發方式可以不可以簡單介紹一下。
A:下載SDK以後,放到Nano,解壓出來,裏面是有DEMO,可以直接編譯,對單張圖和多張圖預測,有多線程的預測,還有起服務的形式都有,如果你還有疑問,你可以再看一下回放,或者在羣裏提其他的問題,都可以。

Q:剛纔老師用的shell工具是什麼?
A:我的電腦是mac,我的shell工具是iTerm2。

Q:腳本調參的訓練計費是多少錢?
A:初始應該是提供了100個小時的免費額度,後面再用,計費在主頁上都寫了,你可以看一下。

Q:就EdgeBoard和Nano哪個更快一些。
A:EdgeBoard剛纔講了幾個,有計算卡,加速卡,計算盒,你可以看回放或者到EasyDL主頁查看對比。

Q:Jetson、TX2和Xavier能運行caffe嗎?
A:沒問題,可以運行。

Q:支持的攝像頭列表在哪裏能看到?
A:比如說用Jetson的產品外接哪些攝像頭,所有的硬件接口支持什麼樣的相機,也是在官網信息上都有,會有非常詳細的外界傳感器的支持信息列表。關於接口、電流,就是外接設備,可以在EasyDL官網上看一下細節介紹。

Q:新的Nano如何通過SSH設置網址?
A:ssh登錄首先需要知道ip,你可以通過串口設置ip,然後再用SSH登錄。或者直接連接顯示器鼠標鍵盤進去設置,在主機上配置網絡。

Q:Nano控制繼電器需要GPIO嗎?
A:我印象中是需要的,我建議還是到官網上查看一下。

Q:筆記本遠程訪問Jetson Nano,如何通過SSH訪問?
A:剛纔有兩個問題都類似,你先知道它的IP地址,可以通過串口設置或者是接個顯示器或鼠標鍵盤設置,然後在主機上配置一下網絡就可以了,網上教程比較多。另外就是剛纔的問題,EasyDL怎麼接deepstream這個問題,其實我們也在看,大家可以關注一下,這個也會深度支持的。

主持人:好的。QA環節就到這裏,如果有其他問題,可以看一下小助手的微信號,或搜索一下BaiduEasyDL的拼音,羣裏有百度的專家和NVIDIA的專家爲大家解答。

現在介紹一下Jetson和EasyDL軟硬一體方案,EasyDLJetson Nano是800,原價是1099,800是全網最低,性能非常好,搭載EasyDL定製模型深度適配,可輕鬆實現定製AI的離線計算。中間是EasyDL和JetsonTX2方案,原價3500,現在是3200,感興趣可以掃描二維碼。右側是EasyDL和JetsonXavier軟硬一體方案,售價是5600,原價是5999。同時大家可以看到,左側有一本書,如果現在購買EasyDL和Jetson的軟硬一體方案,可以獲贈這本基於NVIDIA Jetson人工智能開發入門。
在這裏插入圖片描述
剛同學說到已經單獨購買NVIDIA硬件,訓練模型之後,選擇發佈爲SDK,點擊服務詳情下載SDK並進入控制檯,進入控制檯左側導航,專項硬件適配服務器,點擊新增測試序列號,即可獲得專用序列號,即可獲得三個月有效期的專用SDK,在SDK購買上線後即可購買。
在這裏插入圖片描述
在百度AI市場搜索EasyDL,選擇EasyDLJetson Nano/TX2軟硬一體開發套件進行購買。獲得Jetson Nano和用於激活專用SDK的專用序列號,在EasyDL訓練專項適配Jetson的圖像分類/物體檢測模型,迭代模型致效果滿足業務需求,發佈模型時選擇專項硬件適配SDK—Jetson專用SDK,參考文檔進行部署集成,即可實現離線AI預測。
在這裏插入圖片描述
在這裏插入圖片描述
在下週的課程中,來到了百度AI快車道-EasyDL產業應用系列:領域信息處理專場。在6月2日-6月3日,主要爲CV方向,內容將會包括直播平臺、互聯網社區等業務,如何構建圖像審覈、文本審覈內容安全方案和利用EasyDL圖像分類能力構建膀胱腫瘤識別模型並進行臨牀部署。

想要快速提升自己,轉型AI應用專家的小夥伴,一定不要錯過哦!下週課程海報:
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章