原创 雷達原理-目標距離的測量

本篇博文是看完西安電子科技大學的魏青老師的課程所做的學習筆記,特此記錄。 文章目錄脈衝法測距調頻法測距距離跟蹤原理 脈衝法測距 基本原理 兩種定義回波到達時間tR的方法:一種是以目標脈衝的前沿作爲它的到達時刻,另一種是以回波脈

原创 雷達原理-雷達作用距離

本篇博文是看完西安電子科技大學的魏青老師的課程所做的學習筆記,特此記錄。 文章目錄雷達方程最小可檢測信號脈衝積累對作用距離的改善目標截面積及其起伏特性系統損耗傳播過程中各種因素的影響雷達方程的幾種形式 雷達方程 基本雷達方程 理

原创 雷達原理-緒論

本篇博文是看完西安電子科技大學的魏青老師的課程所做的學習筆記,特此記錄。 文章目錄前言雷達組成目標參數的測量基本雷達方程雷達的工作頻率、應用與發展電子戰與軍用雷達 前言 信息對抗: 1. 雷達對抗 2. 通信對抗 3. 網絡對抗

原创 考研經驗---複試篇

考研經驗—複試篇 上一篇文章已經詳細地介紹了個人的考研初試情況,傳送連接。這篇文章主要介紹一下自己在參加考研複試的過程中的一些經歷 時間:2019年12月23日-2020年3月24日 在考研初試結束後的第二天,也就是2019年12

原创 Tensorflow2.1基礎知識---豐富神經網絡八股的內容

本篇文章的主要目的是對上一篇文章已經搭建好的網絡進一步豐富其內容,具體體現在6個方面: 1. 加載自己製作的訓練集 2. 數據增強 3. 斷點續訓 4. 參數提取 5. acc/loss可視化 6. 給圖識物 加

原创 c++基礎知識學習---第八天

本篇博客是作者在學習c++的過程中的筆記記錄,希望和各位讀者一起學習交流 文章目錄數組指針和指針數組函數指針和指針函數下面的是筆者的微信公衆號,歡迎關注,會持續更新c++、python、tensorflow、機器學習、深度學習等系

原创 c++基礎知識學習---第二天

本片博客是作者在學習c++的過程中的筆記記錄,希望和各位讀者一起學習交流 文章目錄引用c++對c的函數擴展下面的是筆者的微信公衆號,歡迎關注,會持續更新c++、python、tensorflow、機器學習、深度學習等系列文章 引用

原创 Tensorflow2.1基礎知識---張量

張量(Tensor):多維數組(列表) 階:張量的維數 張量可以表示0階到n階數組(列表) 基本的數據類型 tf.int,tf.float tf.bool tf.string 生成一個張量 如何創建一個張量 用法:tf.c

原创 c++基礎知識學習---第一天

本片博客是作者在學習c++的過程中的筆記記錄,希望和各位讀者一起學習交流 文章目錄包含頭文件“”和<>的區別命名空間(namespace)public、private和protectedstruct和class的區別c++對c的加

原创 你需要知道的linux基礎編程(一)

命令解析器 Shell ----- UNIX操作系統 Bash ----- Linux操作系統 本質:根據命令的名字,調用對應的可執行程序 Linux快捷鍵 history 查看歷史命令 ctrl + p 在歷史的

原创 第二章信息的處理和表示(2.整數表示)

2.整數表示 用位來表示整數有兩種不同的方式:1. 表示非負數 2. 表示負數、零、正數 引入一些數學術語 整型數據類型 C語言支持多種整型數據類型-------表示有限範圍的數。每種類型都能用關鍵字來指定其大小,這些關鍵字

原创 重新認識面向對象和麪向對象的設計原則

重新認識面向對象 理解隔離變化 從宏觀層面來看,面向對象的構建方式更能適應軟件的變化,能將變化所帶來的影響降到最小 各司其職 從微觀層面來看,面向對象的方式更強調各個類的“責任” 由於需求變化導致的新增類型不應該影響原來類型的實

原创 第二章信息的處理和表示(1.信息存儲)

概述 現代計算機存儲和處理信息以二值信號表示。這些二進制數字形成了數字革命的基礎 二值信號能夠容易地被表示、存儲和傳輸,例如穿孔卡片上有洞或無洞、導線上的高低電壓、磁場的順時針或逆時針 三種最重要的數字表示: 1. 無符號編

原创 Tensorflow2.1基礎知識---搭建神經網絡八股以及小案例實戰

本片文章的目的是:利用Tensorflow API tf.keras搭建網絡八股(六步法) 六步法: 導入相關的模塊,也就是 import 加載訓練集和測試集,也就是加載train(x_train數據、y_train標籤)、t

原创 Tensorflow2.1基礎知識---神經網絡參數優化器

什麼是優化器? 優化器,就是神經網絡進行反向傳播的時候,用於更新參數的策略,也就是梯度下降的算法。 優化器更新參數的步驟(4步): a. 計算t時刻損失函數關於當前參數的梯度:g_t= ∆loss= ∂loss/(∂(w_t))