原创 tensorflow2之模型保存(h5)
使用mnist數據集測試模型保存爲(*.h5), 創建model_hand_h5_save.py #encoding=utf-8 # 多分類問題 # 手動保存 *.h5 權重 from __future__ import absolu
原创 sk-learn學習之kmeans聚類(2)
K-均值是最普及的聚類算法,算法接受一個未標記的數據集,然後將數據聚類成不同的組。 K-均值是一個迭代算法,假設我們想要將數據聚類成 n 個組,其方法爲: 1.首先選擇?個隨機的點,稱爲聚類中心(cluster centroids); 2
原创 ubuntu20.04常用
1.換源 在 /etc/apt 下雙擊 source.list 文件 可修改到國內的源. https://blog.csdn.net/YooLcx/article/details/104527734 2. ubuntu18下安裝谷歌拼音輸
原创 tensorflow2-之線性擬合
使用tf2 擬合出一條簡單的直線方程。 準備數據 xy.csv. https://github.com/xiangkejun/machine_learning_xx/blob/master/tf2_xx/xy.csv 準備 line
原创 sk-learn學習之svm(1)
svm是很強大的分類器,可以用於監督學習,半監督/無監督學習中,在工業界和學術界都有廣泛的應用。 1. svm一個簡單的二分類例子 https://scikit-learn.org/stable/modules/svm.html#svm-
原创 tensorflow2之模型加載恢復(h5)
使用new_model = tf.keras.models.load_model('my_model.h5') 創建一個與 my_model相同的模型並加載權重測試。 創建 model_hand_h5_load.py #encodin
原创 tensorflow2之fashion_minist測試
下面做的是一個多分類的經典例子,加載編號(0-9)的10種商品的fashion_minist數據集進行測試。 FashionMNIST 是一個替代 MNIST 手寫數字集 的圖像數據集。 它是由 Zalando(一家德國的時尚科技公司)旗
原创 tensorflow2之多層感知機
使用tf2 實現簡單感知機, 通過多個特徵量預測一個連續值。 準備數據 adversing.csv. https://github.com/xiangkejun/machine_learning_xx/blob/master/tf2_xx
原创 VOC轉tfrecord
ubuntu16.04 系統 使用Tensorflow Object Detection API 將VOC轉化到tfrecord 1. 準備 pip install tensorflow # 1.7 2. 下載 tensoflow下的m
原创 tensorflow2之邏輯迴歸二分類
使用tf2做簡單的2分類。 準備數據2fenlei.csv https://github.com/xiangkejun/machine_learning_xx/blob/master/tf2_xx/2fenlei.csv 創建 logt
原创 cartographer1.0配置(6)
https://download.csdn.net/download/v7xyy/10896486 https://github.com/xiangkejun/mapping 使用的是cartographer1.0 目前只用了一個二維激
原创 導航啓動(10)
測試導航包。 1. 在turtlebot_navigation下先新建一個 amcl_hokuyo.launch <launch> <!-- 3D sensor --> <arg name="3d_sensor" default
原创 hokuyo地圖創建(8)
使用hokuyo激光利用cartographer創建柵格地圖。 1. 在cartographer_ros/launch 下創建demo_hokuyo_xx.launch <launch> <param name="/use_sim_
原创 導航(9)
導航需要的程序包。 https://github.com/ros-drivers/driver_common/tree/indigo-devel https://github.com/ros-drivers/hokuyo_node
原创 yolov3_tf2開始
https://github.com/zzh8829/yolov3-tf2 訓練 1.將轉換後得到的 voc2012.record 文件放到 train.py 當前路徑下 python3 train.py --batch_size 8