eStargz
本文档将帮助您将 Dragonfly 与 eStargz 一起使用。
依赖
所需软件 | 版本要求 | 文档 |
---|---|---|
Kubernetes cluster | 1.20+ | kubernetes.io |
Helm | 3.8.0+ | helm.sh |
Containerd | v1.4.3+ | containerd.io |
Nerdctl | 0.22+ | containerd/nerdctl |
注意: 如果没有可用的 Kubernetes 集群进行测试,推荐使用 Kind。
安装 Dragonfly
基于 Kubernetes cluster 详细安装文档可以参考 quick-start-kubernetes。
使用 Kind 安装 Kubernetes 集群
创建 Kind 多节点集群配置文件 kind-config.yaml
, 配置如下:
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
nodes:
- role: control-plane
- role: worker
extraPortMappings:
- containerPort: 30950
hostPort: 65001
- containerPort: 30951
hostPort: 40901
- role: worker
使用配置文件创建 Kind 集群:
kind create cluster --config kind-config.yaml
切换 Kubectl 的 context 到 Kind 集群:
kubectl config use-context kind-kind
Kind 加载 Dragonfly 镜像
下载 Dragonfly latest 镜像:
docker pull dragonflyoss/scheduler:latest
docker pull dragonflyoss/manager:latest
docker pull dragonflyoss/dfdaemon:latest
Kind 集群加载 Dragonfly latest 镜像:
kind load docker-image dragonflyoss/scheduler:latest
kind load docker-image dragonflyoss/manager:latest
kind load docker-image dragonflyoss/dfdaemon:latest
基于 Helm Charts 创建 Dragonfly P2P 集群
创建 Helm Charts 配置文件 charts-config.yaml
并且开启 Peer 的预取功能, 配置如下:
scheduler:
replicas: 1
metrics:
enable: true
config:
verbose: true
pprofPort: 18066
seedPeer:
replicas: 1
metrics:
enable: true
config:
verbose: true
pprofPort: 18066
download:
prefetch: true
dfdaemon:
hostNetwork: true
config:
verbose: true
pprofPort: 18066
# metrics变量中要包含":"
metrics: :8000
download:
prefetch: true
proxy:
defaultFilter: 'Expires&Signature&ns'
security:
insecure: true
tcpListen:
listen: 0.0.0.0
port: 65001
registryMirror:
dynamic: true
url: https://index.docker.io
proxies:
- regx: blobs/sha256.*
manager:
replicas: 1
metrics:
enable: true
config:
verbose: true
pprofPort: 18066
使用配置文件部署 Dragonfly Helm Charts:
$ helm repo add dragonfly https://dragonflyoss.github.io/helm-charts/
$ helm install --wait --create-namespace --namespace dragonfly-system dragonfly dragonfly/dragonfly -f charts-config.yaml
NAME: dragonfly
LAST DEPLOYED: Wed Oct 19 04:23:22 2022
NAMESPACE: dragonfly-system
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
1. Get the scheduler address by running these commands:
export SCHEDULER_POD_NAME=$(kubectl get pods --namespace dragonfly-system -l "app=dragonfly,release=dragonfly,component=scheduler" -o jsonpath={.items[0].metadata.name})
export SCHEDULER_CONTAINER_PORT=$(kubectl get pod --namespace dragonfly-system $SCHEDULER_POD_NAME -o jsonpath="{.spec.containers[0].ports[0].containerPort}")
kubectl --namespace dragonfly-system port-forward $SCHEDULER_POD_NAME 8002:$SCHEDULER_CONTAINER_PORT
echo "Visit http://127.0.0.1:8002 to use your scheduler"
2. Get the dfdaemon port by running these commands:
export DFDAEMON_POD_NAME=$(kubectl get pods --namespace dragonfly-system -l "app=dragonfly,release=dragonfly,component=dfdaemon" -o jsonpath={.items[0].metadata.name})
export DFDAEMON_CONTAINER_PORT=$(kubectl get pod --namespace dragonfly-system $DFDAEMON_POD_NAME -o jsonpath="{.spec.containers[0].ports[0].containerPort}")
You can use $DFDAEMON_CONTAINER_PORT as a proxy port in Node.
3. Configure runtime to use dragonfly:
https://d7y.io/docs/getting-started/quick-start/kubernetes/
检查 Dragonfly 是否部署成功:
$ kubectl get po -n dragonfly-system
NAME READY STATUS RESTARTS AGE
dragonfly-dfdaemon-rhnr6 1/1 Running 4 (101s ago) 3m27s
dragonfly-dfdaemon-s6sv5 1/1 Running 5 (111s ago) 3m27s
dragonfly-manager-67f97d7986-8dgn8 1/1 Running 0 3m27s
dragonfly-mysql-0 1/1 Running 0 3m27s
dragonfly-redis-master-0 1/1 Running 0 3m27s
dragonfly-redis-replicas-0 1/1 Running 1 (115s ago) 3m27s
dragonfly-redis-replicas-1 1/1 Running 0 95s
dragonfly-redis-replicas-2 1/1 Running 0 70s
dragonfly-scheduler-0 1/1 Running 0 3m27s
dragonfly-seed-peer-0 1/1 Running 2 (95s ago) 3m27s
创建 Peer Service 配置文件 peer-service-config.yaml
配置如下:
apiVersion: v1
kind: Service
metadata:
name: peer
namespace: dragonfly-system
spec:
type: NodePort
ports:
- name: http-65001
nodePort: 30950
port: 65001
- name: http-40901
nodePort: 30951
port: 40901
selector:
app: dragonfly
component: dfdaemon
release: dragonfly
使用配置文件部署 Peer Service:
kubectl apply -f peer-service-config.yaml
Containerd 集成 Stargz
生产环境 Containerd 集成 Stargz 详细文档可以参考
stargz-setup-for-containerd-environment.
下面例子使用 Systemd 管理 stargz-snapshotter
服务。
下载安装 Stargz 工具
下载 containerd-stargz-grpc
二进制文件, 下载地址为 stargz-snapshotter/releases:
STARGZ_SNAPSHOTTER_VERSION=0.13.0
wget https://github.com/containerd/stargz-snapshotter/releases/download/stargz-snapshotter-v$STARGZ_SNAPSHOTTER_VERSION-linux-amd64.tar.gz
tar -C /usr/local/bin -xvf stargz-snapshotter-v$STARGZ_SNAPSHOTTER_VERSION-linux-amd64.tar.gz containerd-stargz-grpc ctr-remote
Containerd 集成 Stargz Snapshotter 插件
配置 Containerd 使用 stargz-snapshotter
插件, 详细文档参考
configure-and-start-containerd.
首先修改 Containerd 配置在 /etc/containerd/config.toml
添加下面内容:
[plugins."io.containerd.grpc.v1.cri".containerd]
snapshotter = "stargz"
disable_snapshot_annotations = false
[proxy_plugins]
[proxy_plugins.stargz]
type = "snapshot"
address = "/run/containerd-stargz-grpc/containerd-stargz-grpc.sock"
重启 Containerd 服务:
sudo systemctl restart containerd
验证 containerd 是否使用 stargz-snapshotter
插件:
$ ctr -a /run/containerd/containerd.sock plugin ls | grep stargz
io.containerd.snapshotter.v1 stargz - ok
Systemd 启动 Stargz Snapshotter 服务
Stargz 的 Mirror 模式配置详细文档可以参考 stargz-registry-mirrors.
127.0.0.1:65001
是 Dragonfly Peer 的 Proxy 地址,
X-Dragonfly-Registry
自定义 Header 是提供给 Dragonfly 回源的源站仓库地址。
创建 Stargz 配置文件 config.toml
, 配置如下:
[[resolver.host."docker.io".mirrors]]
host = "127.0.0.1:65001"
insecure = true
[resolver.host."docker.io".mirrors.header]
X-Dragonfly-Registry = ["https://index.docker.io"]
复制配置文件至 /etc/containerd-stargz-grpc/config.toml
文件:
sudo mkdir /etc/containerd-stargz-grpc && cp config.toml /etc/containerd-stargz-grpc/config.toml
下载 Stargz Snapshotter Systemd 配置文件 stargz-snapshotter.service
, 配置如下:
wget -O /etc/systemd/system/stargz-snapshotter.service https://raw.githubusercontent.com/containerd/stargz-snapshotter/main/script/config/etc/systemd/system/stargz-snapshotter.service
systemctl enable --now stargz-snapshotter
systemctl restart containerd
转换 Stargz 格式镜像
转换 python:3.9.15
镜像为 Stargz 格式镜像, 可以直接使用已经转换好的 dragonflyoss/python:3.9.15-esgz
镜像, 跳过该步骤。
登陆 Dockerhub:
docker login
转换 Stargz 镜像, DOCKERHUB_REPO_NAME
环境变量设置为用户个人的镜像仓库:
DOCKERHUB_REPO_NAME=dragonflyoss
sudo nerdctl pull python:3.9.15
sudo nerdctl image convert --estargz --oci python:3.9.15 $DOCKERHUB_REPO_NAME/python:3.9.15-esgz
sudo nerdctl image push $DOCKERHUB_REPO_NAME/python:3.9.15-esgz
Nerdctl 运行 Stargz 镜像
使用 Nerdctl 运行 python:3.9.15-esgz
, 过程中即通过 Stargz 和 Dragonfly 下载镜像:
sudo nerdctl --snapshotter stargz run --rm -it $DOCKERHUB_REPO_NAME/python:3.9.15-esgz
搜索日志验证 Stargz 基于 Mirror 模式通过 Dragonfly 分发流量:
$ journalctl -u stargz-snapshotter | grep 'prepared remote snapshot'
containerd-stargz-grpc[641210]: {"key":"default/102/extract-937057799-P18P sha256:3c17c21e4512b29e8cfc1c8621f91e4284ce2dcc5080a348c7ba4f47eaba6f11","level":"debug","msg":"prepared remote snapshot","parent":"sha256:4f9bea3e771997ae09192ddf4bd59c844444c671174835446759a82e457f1aed","remote-snapshot-prepared":"true","time":"2022-11-04T03:53:03.945119325Z"}
性能测试
测试 Stargz Mirror 模式与 Dragonfly P2P 集成后的单机镜像下载的性能。
主要测试不同语言镜像运行版本命令的启动时间,例如 python
镜像运行启动命令为 python -V
。
测试是在同一台机器上面做不同场景的测试。
由于机器本身网络环境、配置等影响,实际下载时间不具有参考价值,
但是不同场景下载时间所提升的比率是有重要意义的。
- OCIv1: 使用 Containerd 直接拉取镜像并且启动成功的数据。
- Stargz Cold Boot: 使用 Containerd 通过 Stargz 拉取镜像,没有命中任何缓存并且启动成功的数据。
- Stargz & Dragonfly Cold Boot: 使用 Containerd 通过 Stargz 拉取镜像,并且基于 Stargz Mirror 模式流量转发至 Dragonfly P2P,在没有命中任何缓存并且启动成功的数据。
- Hit Stargz Cache: 使用 Containerd 通过 Stargz 拉取镜像, 并且基于 Stargz Mirror 模式流量转发至 Dragonfly P2P,在命中 Stargz 的本地缓存的情况下并且成功启动的数据。
测试结果表明 Stargz Mirror 模式和 Dragonfly P2P 集成。使用 Stargz 下载镜像对比 OCIv1
的模式,
能够有效减少镜像下载时间。Stargz 冷启动和 Stargz & Dragonfly 冷启动数据基本接近。
最重要的是如果很大规模集群使用 Stargz 拉取镜像,
会将每个镜像层的下载分解按需产生很多 Range 请求。增加镜像仓库源站 QPS
。
而 Dragonfly 可以基于 P2P 技术有效减少回源镜像仓库的请求数量和下载流量。
最优的情况,Dragonfly 可以保证大规模集群中每个下载任务只回源一次。