對比軟件安裝和運行;
一、場景
作爲研發人員,通常自己電腦的系統環境都是非常複雜,在個人的習慣上,是按照下圖的模塊管理電腦的系統環境;
對於「基礎設施」、「主機操作系統」、「系統軟件」來說,通常只做配置修改;
對於自行安裝的軟件環境來說,個人通常這樣分類:「應用軟件」、「研發軟件」、「持續集成」、「虛擬機環境」;
- 應用軟件:主要指常用的辦公軟件,比如文檔編寫,畫圖設計,通信產品等;
- 研發軟件:比如基礎開發環境,各種中間件環境,數據存儲查詢等;
- 持續集成:主流的就是Jenkins、Docker、Kubernetes等組件,整體比較複雜,不好管理;
- 虛擬機環境:研發必備的Linux操作系統,用來部署一些標準的組件集羣;
不論是這些軟件環境還是虛擬機系統的搭建,基本都是通過下載軟件安裝包,然後在本地部署和定期更新以及運行,基於這個場景再去理解容器和Pod組件,會輕鬆許多;
二、容器
1、容器鏡像
參考上面系統環境的管理,軟件包和安裝部署的原理;
Docker容器鏡像是一個輕量級的、獨立的、可執行的軟件包,它包含了運行應用程序所需的一切:代碼、運行時、系統工具、系統庫和設置,帶有創建Docker容器的說明;
可以通過Dockerfile腳本自定義鏡像,也可以使用雲端倉庫中其他人公開發布的,生產環境通常採用私有倉庫管理鏡像;
容器鏡像所承載的是封裝了應用程序及其所有軟件依賴的二進制數據,容器鏡像是可執行的軟件包,可以單獨運行;通常會創建應用的容器鏡像並將其推送到某倉庫,然後在Pod中引用它;
2、容器
容器將應用程序從底層的主機設施中解耦,這使得在不同的雲或OS環境中部署更加容易;
容器的本質就是一個視圖隔離、可限制資源、獨立文件系統的進程集合;
以常見的Linux研發環境來分析,可以限制容器的資源分配,比如內存大小、CPU使用,隔離進程之間的通信,設置獨立的文件系統等;
Kubernetes集羣中的每個節點都會運行容器,這些容器構成分配給該節點的Pod,單個Pod中的容器會在共同調度下,於同一位置運行在相同的節點上;
從整體上可以把K8S理解爲「操作系統」,鏡像理解爲「軟件安裝包」,容器理解爲「應用進程」;
3、實踐案例
製作鏡像,首先將代碼工程auto-client
和auto-serve
打包,然後構建鏡像文件,放在本地環境中;
- 製作【auto-client】鏡像
構建命令
docker build -t auto-client:latest .
Dockerfile腳本
# 基礎鏡像
FROM openjdk:8
# 維護者
MAINTAINER cicadasmile
# 持久化目錄
VOLUME /data/docker/logs
# 添加應用服務JAR包
ADD auto-client.jar application.jar
# 配置參數
ENTRYPOINT ["java","-Dspring.profiles.active=dev","-Djava.security.egd=file:/dev/./urandom","-jar","/application.jar"]
- 製作【auto-serve】鏡像
構建命令
docker build -t auto-serve:latest .
Dockerfile腳本
# 基礎鏡像
FROM openjdk:8
# 維護者
MAINTAINER cicadasmile
# 持久化目錄
VOLUME /data/docker/logs
# 添加應用服務JAR包
ADD auto-serve.jar application.jar
# 配置參數
ENTRYPOINT ["java","-Dspring.profiles.active=dev","-Djava.security.egd=file:/dev/./urandom","-jar","/application.jar"]
三、Pod組件
1、基本概念
Pod是可以在K8S中創建和管理的、最小的可部署的計算單元;
Pod是一組(一個或多個)容器,這些容器共享存儲、網絡、以及怎樣運行這些容器的聲明,Pod中的內容總是並置的並且一同調度,在共享的上下文中運行;
2、Pod管理
【Pod創建】
通常不會直接創建Pod,而是使用諸如Deployment或Job這類工作負載資源來創建Pod;是相對臨時性的、用後即拋的一次性實體;
【單容器Pod】
每個Pod都意在運行給定應用程序的單個實例,可以使用多個Pod對應用程序橫向擴展,即一個實例一個Pod對應,Pod看作單個容器的包裝器由K8S直接管理,是常見的部署方式;
【多容器Pod】
分佈式系統中可能存在由多個緊密耦合且需要共享資源的共處容器組成的應用程序,比較典型的是「生產消費」場景,Pod將這些容器和存儲資源打包爲一個可管理的實體;
Pod中的容器被自動安排到集羣中的同一物理機或虛擬機上,並可以一起進行調度,容器之間可以共享網絡和存儲資源和依賴、彼此通信、協調何時以及何種方式終止自身;
容器之間原本是被隔離開的,而Pod在設計上可以突破這種隔離,進而實現資源共享;
- 存儲共享
在Pod層面設置共享的Volume,該Pod中所有容器都可以訪問該共享Volume,這也是Pod組件的存儲方式,Volume還允許Pod中持久數據保留下來,即使其中的容器需要重新啓動;
- 網絡共享
同一個Pod內,所有容器共享一個IP地址和端口空間,並且可以通過localhost
發現對方;
3、實踐案例
3.1 Pod腳本
在此前的案例中,都是單容器Pod,這裏演示多容器Pod,將【auto-client】和【auto-serve】放在同一個「auto-pod」中運行;
並且這裏爲兩個容器分配CPU和內存資源,requests
是要爲容器指定資源需求,limits
是要爲容器指定資源限制;
apiVersion: v1
kind: Pod
metadata:
name: auto-pod
spec:
containers:
- name: auto-client
image: auto-client
imagePullPolicy: Never
ports:
- containerPort: 8079
resources:
requests:
cpu: "250m"
memory: "64Mi"
limits:
cpu: "500m"
memory: "128Mi"
- name: auto-serve
image: auto-serve
imagePullPolicy: Never
ports:
- containerPort: 8082
resources:
requests:
cpu: "250m"
memory: "64Mi"
limits:
cpu: "500m"
memory: "128Mi"
3.2 Pod命令
- 創建Pod
kubectl create -f pod.yaml
- 查看指定Pod
kubectl get pod/auto-pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
auto-pod 2/2 Running 0 9m2s 10.1.0.123 docker-desktop <none> <none>
- 查看指定Pod描述
kubectl describe pod/auto-pod
# 此處只展示部分信息
Name: auto-pod
Namespace: default
Node: docker-desktop/192.168.65.11
Status: Running
IP: 10.1.0.123
Containers:
auto-client:
Container ID: docker://Container-ID
Image: auto-client
Image ID: docker://sha256:Image-ID
Port: 8079/TCP
Limits:
cpu: 500m
memory: 128Mi
Requests:
cpu: 250m
memory: 64Mi
auto-serve:
Container ID: docker://Container-ID
Image: auto-serve
Image ID: docker://sha256:Image-ID
Port: 8082/TCP
Limits:
cpu: 500m
memory: 128Mi
Requests:
cpu: 250m
memory: 64Mi
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 38s default-scheduler Successfully assigned default/auto-pod to docker-desktop
Normal Pulled 37s kubelet Container image "auto-client" already present on machine
Normal Created 37s kubelet Created container auto-client
Normal Started 37s kubelet Started container auto-client
Normal Pulled 37s kubelet Container image "auto-serve" already present on machine
Normal Created 37s kubelet Created container auto-serve
Normal Started 37s kubelet Started container auto-serve
- 刪除Pod
kubectl delete -f pod.yaml
3.3 服務日誌
在「auto-client」服務中,提供一個簡單的定時任務,每10秒訪問一次「auto-serve」的接口,打印請求的響應結果;
@Component
public class HttpJob {
private static final Logger LOG = LoggerFactory.getLogger(HttpJob.class.getName()) ;
private static final String SERVER_URL = "http://localhost:8082/serve";
/**
* 每10秒執行一次
*/
@Scheduled(fixedDelay = 10000)
public void systemDate (){
try{
SimpleClientHttpRequestFactory factory = new SimpleClientHttpRequestFactory();
factory.setReadTimeout(3000);
factory.setConnectTimeout(6000);
RestTemplate restTemplate = new RestTemplate(factory);
Map<String,String> paramMap = new HashMap<>() ;
String result = restTemplate.getForObject(SERVER_URL,String.class,paramMap);
LOG.info("server-resp::::"+result);
} catch (Exception e){
e.printStackTrace();
}
}
}
在「auto-serve」服務中,提供一個簡單的Get請求接口;
@RestController
public class ServeWeb {
private static final Logger logger = LoggerFactory.getLogger(ServeWeb.class) ;
@Value("${server.port:}")
private Integer servePort ;
@GetMapping("/serve")
public String serve (){
logger.info("serve:{}",servePort);
return "serve:"+servePort ;
}
}
查看兩個容器的運行日誌,發現「auto-client」和「auto-serve」可以正常通信,以此來驗證同一個Pod內網絡共享;
4、狀態與重啓
4.1 重啓策略
可以在Pod中通過restartPolicy
屬性設置重啓策略,常用的取值是Always
以降低應用的中斷時間,適用於Pod中的所有容器;
- Always:默認值,容器失效時,kubelet自動重啓該容器。
- OnFailure:容器停止運行且退出碼不爲0時,kubelet自動重啓該容器。
- Never:不論容器是什麼狀態,kubelet都不重啓該容器。
4.2 生命週期
- Pending:Pod被Kubernetes系統接受,但有一個或者多個容器未創建,此階段包括等待Pod被調度的時間和通過網絡下載鏡像的時間。
- Running:Pod已經綁定到了某個節點,Pod中所有的容器都已被創建,至少有一個容器在運行,或者正處於啓動或重啓狀態。
- Succeeded:Pod中的所有容器都已成功終止,並且不會再重啓。
- Failed:Pod中的所有容器都已終止,並且至少有一個容器是因爲失敗被終止。
- Unknown:因爲某些原因無法取得Pod的狀態,通常是因爲與Pod所在主機通信失敗。
Pod遵循預定義的生命週期,起始於Pending
階段,如果至少其中有一個主要容器正常啓動,則進入Running
階段,之後取決於Pod中是否有容器以失敗狀態結束而進入Succeeded
或者Failed
階段。
四、參考源碼
文檔倉庫:
https://gitee.com/cicadasmile/butte-java-note
腳本倉庫:
https://gitee.com/cicadasmile/butte-auto-parent