简介:

系统初始化
Kubeadm部署安装

搭建harbor

 

系统初始化

安装依赖包

yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wget vim net-tools git
 
设置系统主机名以及 Host 文件的相互解析
hostnamectl set-hostname <hostname>

 

在 master及每台node 添加 hosts:(或者大型环境使用DNS解析)

$ cat >> /etc/hosts << EOF
192.168.31.61 k8s-master
192.168.31.62 k8s-node1
192.168.31.63 k8s-node2
EOF

 

设置防火墙为 iptables 并清空规则
systemctl stop firewalld && systemctl disable firewalld 
yum -y install iptables-services && systemctl start iptables && systemctl enable iptables && iptables -F && service iptables save

 

关闭 SELINUX,关闭swap(防止容器在swap虚拟内存上运行)
swapoff -a && sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config

 

调整内核参数
cat > kubernetes.conf <<EOF 
net.bridge.bridge-nf-call-iptables=1 #开启网桥模式
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
net.ipv4.tcp_tw_recycle=0
vm.swappiness=0 # 禁止使用 swap 空间,只有当系统 OOM 时才允许使用它
vm.overcommit_memory=1 # 不检查物理内存是否够用
vm.panic_on_oom=0 # 开启 OOM
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1 #禁用ipv6
net.netfilter.nf_conntrack_max=2310720
EOF

cp kubernetes.conf /etc/sysctl.d/kubernetes.conf
sysctl -p /etc/sysctl.d/kubernetes.conf

 

同步系统时间

# 设置系统时区为 中国/上海 
timedatectl set-timezone Asia/Shanghai 
# 将当前的 UTC 时间写入硬件时钟 
timedatectl set-local-rtc 0 
# 重启依赖于系统时间的服务
systemctl restart rsyslog systemctl restart crond

 

设置 rsyslogd 和 systemd journald
mkdir /var/log/journal # 持久化保存日志的目录 
mkdir /etc/systemd/journald.conf.d 
cat > /etc/systemd/journald.conf.d/99-prophet.conf <<EOF
[Journal] 
# 持久化保存到磁盘 
Storage=persistent 
# 压缩历史日志 
Compress=yes 
SyncIntervalSec=5m 
RateLimitInterval=30s 
RateLimitBurst=1000 
# 最大占用空间 10G 
SystemMaxUse=10G 
# 单日志文件最大 200M 
SystemMaxFileSize=200M 
# 日志保存时间 2 周 
MaxRetentionSec=2week 
# 不将日志转发到 
syslog ForwardToSyslog=no
EOF 
systemctl restart systemd-journald
 
升级系统内核
CentOS 7.x 系统自带的 3.10.x 内核存在一些 Bugs,导致运行的 Docker、Kubernetes 不稳定
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm 
# 安装完成后检查 /boot/grub2/grub.cfg 中对应内核 menuentry 中是否包含 initrd16 配置,如果没有,再安装 一次! 
yum --enablerepo=elrepo-kernel install -y kernel-lt 
# 设置开机从新内核启动 
grub2-set-default 'CentOS Linux (5.4.144-1.el7.elrepo.x86_64) 7 (Core)'
cat /proc/version

 

Kubeadm部署安装

所有节点安装 Docker/kubeadm/kubelet

Kubernetes 默认 CRI( 容器运行时) 为 Docker, 因此先安装 Docker

 
kube-proxy开启ipvs的前置条件
modprobe br_netfilter
cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules &&
lsmod | grep -e ip_vs -e nf_conntrack_ipv4
 
安装 Docker 软件
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager \
--add-repo \
http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum update -y && yum install -y docker-ce
## 创建 /etc/docker 目录
mkdir /etc/docker
# 配置 daemon.
cat > /etc/docker/daemon.json <<EOF
{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
}
}
EOF
mkdir -p /etc/systemd/system/docker.service.d
# 重启docker服务
systemctl daemon-reload && systemctl restart docker && systemctl enable docker

 

添加阿里云 YUM 软件源

$ cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

 

安装 kubeadm, kubelet 和 kubectl

由于版本更新频繁,这里指定版本号部署

yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
systemctl enable kubelet

 

至此,以上步骤所有节点(master/slave)都执行就对了

 

部署 Kubernetes Master

在 192.168.31.61( Master) 执行

第一种初始化方式:(推荐,方便,自动下载)

$ kubeadm init \
  --apiserver-advertise-address=192.168.44.146 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.18.0 \
  --service-cidr=10.96.0.0/12 \
  --pod-network-cidr=10.244.0.0/16

 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址。

 

第二种初始化方式:(优点:速度快)

(能连上外网)后把镜像push下来打包手动初始化

k8s集群安装学习笔记一——Kubernetes安装部署

把包上传至服务器

编写手动初始化脚本

vim load_images.sh

ls /root/kubeadm-basic.images > /tmp/image-list.txt

cd /root/kubeadm-basic.images

for i in $(cat /tmp/image-list.txt)
do

    docker load -i $i
    
done

rm  -rf  /tmp/image-list.txt

 $ chmod  a+x load-images.sh

 $ ./load-images.sh

 

#获取默认初始化模板
kubeadm config print init-defaults > kubeadm-config.yaml 

修改后如下:
localAPIEndpoint:
    advertiseAddress: 192.168.66.10 
kubernetesVersion: v1.15.1 
networking: 
    podSubnet: "10.244.0.0/16"  #pod的网段
    serviceSubnet: 10.96.0.0/12 
#并添加如下字段:
--- apiVersion: kubeproxy.config.k8s.io/v1alpha1 kind: KubeProxyConfiguration featureGates: SupportIPVSProxyMode: true mode: ipvs #把默认调度方式改为ipvs #执行初始化 kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs | tee kubeadm-init.log

#--experimental-upload-certs 自动颁发证书

 

查看上面日志(kubeadm-init.log)可以知道,还需要执行下面步骤:

使用kubectl命令行管理工具:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

#此时kubectl就可以使用了
#查看节点 $ kubectl get nodes
NAME        STATUS    ROLES    AGE    VERSION
k8s-master01   NotReady   master    4m13s   v1.15.1

 因为还没有构建flannel网络插件,所以上面状态的NotReady

 

构建flannel网络插件

mkdir -p install-k8s/core
mv kubeadm-init.log kubeadm-config.yaml install-k8s/core
cd install-k8s/
mkdir -p plugin/flannel
cd plugin/flannel

#如果访问不了,可连接外网现下载下来,再上传服务器
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml kubectl create -f kube-flannel.yml #可以通过flannel的资源清单创建相应文件 #查看pod运行状态(-n kube-system 指定名称空间-系统组件默认安装位置,必须指定,不加默认使用default的名称空间) kubectl get pod -n kube-system #可以查看到flannel组件运行了 #现在再查看节点 kubectl get nodes NAME        STATUS    ROLES    AGE    VERSION k8s-master01   Ready   master    4m13s   v1.15.1

 

 加入 Kubernetes Node

在192.168.1.12/13(Node)执行。
向集群添加新节点,执行在kubeadm-init.log输出的kubeadm join命令:

$ kubeadm join 192.168.1.11:6443 --token esce21.q6hetwm8si29qxwn \
    --discovery-token-ca-cert-hash sha256:00603a05805807501d7181c3d60b478788408cfe6cedefedb1f97569708be9c5

 

查看pod运行状态,可以看到新加入的节点正处于初始化状态中...

kubectl get pod -n kube-system

过一会儿后查看,即可看到新加入的节点也处于Ready状态了

kubectl get nodes

 

默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要重新创建token,操作如下:

kubeadm token create --print-join-command

 

将k8s与harbor仓库连接起来

 

搭建harbor

查看更详细搭建步骤

Harbor官方地址: https://github.com/vmware/harbor/releases 
 
先安装docker-compose
curl -L https://get.daocloud.io/docker/compose/releases/download/1.25.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose

给docker-compose添加执行权限

sudo chmod +x /usr/local/bin/docker-compose

查看docker-compose是否安装成功

$ docker-compose -version
docker-compose version 1.25.0, build 0a186604

 

下载Harbor的压缩包(本次安装 v2.0.1)
wget https://github.com/goharbor/harbor/releases/download/v2.0.1/harbor-offline-installer-v2.0.1.tgz
tar -xzf harbor-offline-installer-v2.0.1.tgz
mkdir /opt/harbor
mv harbor/* /opt/harbor
cd /opt/harbor

修改Harbor的配置,没有的话复制harbor.yml.tmpl

vi harbor.yml
修改hostname和port
hostname: 192.168.1.1  #harbor服务访问IP/域名
port: 85

安装Harbor

./prepare
./install.sh
#如果需要支持存储helm的chart包,添加如下参数
./install.sh  --with-chartmuseum

访问

192.168.1.1:85  默认用户名密码admin/Harbor12345 账号密码可在配置文件里修改

启动、停止Harbor

docker-compose up -d 启动
docker-compose stop 停止
docker-compose restart 重新启动

 

推送镜像验证

先需要将仓库添加到docker配置里面

$ vim /etc/docker/daemon.json
{
"insecure-registries": ["192.168.1.1:85"]
}

$ systemctl restart docker
下载测试镜像
docker pull library/nginx:laster

给镜像重新打标签

docker tag library/nginx:laster 192.168.1.1:85/library/nginx:latest

登录Harbor仓库

[root@k8s-n1 harbor]# docker login 192.168.1.1:85
Username: admin
Password:
WARNING! Your password will be stored unencrypted in /root/.docker/config.json.
Configure a credential helper to remove this warning. See
https://docs.docker.com/engine/reference/commandline/login/#credentials-store

Login Succeeded

上传镜像(推送命令可在harbor后台查看)

[root@k8s-n1 harbor]# docker push 192.168.1.1:85/library/nginx:latest
The push refers to repository [192.168.1.1:85/library/nginx]
6c7de695ede3: Pushed
2f4accd375d9: Pushed
ffc9b21953f4: Pushed
latest: digest: sha256:8269a7352a7dad1f8b3dc83284f195bac72027dd50279422d363d49311ab7d9b size: 948

 

其他docker客户端下载测试
指定镜像仓库地址
$ vim /etc/docker/daemon.json
{
"insecure-registries": ["192.168.1.1:85"]
}

$ systemctl restart docker

下载测试镜像

docker pull 192.168.1.1:85/library/nginx:laster

 

测试k8s和harbor的连通性

创建一个deployment控制器来管理容器

kubectl run nginx-deployment --image=192.168.1.1:85/library/nginx:laster --port=80 --replicas=1

--image :指定镜像为harbor仓库的镜像

--port : 指定端口,不写默认也有

--replicas=1 :指定副本数为1,如果删除一个,为了保持副本数为1,就会自动创建一个新的补齐

#查看在每个 Deployment revision 中执行了哪些命令
kubectl get deployment

#deployment会链接 ReplicaSet(rs),查看rs结果差不多
kubectl get rs

#查看pod运行状态
kubectl get pod

#查看pod运行状态及容器信息(包括启动时间、IP及在哪个节点运行)
kubectl get pod -o wide

#例如查到在A节点运行的,登录A节点使用docker命令可查看运行的容器
docker ps -a |grep nginx

删除一个pod

kubectl get pod
kubectl delete pod nginx-deployment-85756b779-shc41

扩容副本数(减压)

kubectl get deployment
kubectl scale --replcas=3 deployment/nginx-deployment

 

 

测试 kubernetes 集群

在 Kubernetes 集群中创建一个 pod, 验证是否正常运行:

$ kubectl create deployment nginx-deploymen--image=nginx
$ kubectl expose deployment nginx-deployment --port=80 --type=NodePort
$ kubectl get pod,svc

 

kubectl expose deployment nginx-deploymen --port=8080 --target-port=80

kubectl get svc  #得到NodeIP (service)
#访问
curl NodeIP:8080 #(会轮训访问三个副本)

 

 注:上面k8s的deployment创建pod方式仅为测试操作,仅供初学了解,实际应用中基本通过资源清单的方式创建。

 

相关文章:

  • 2021-12-02
  • 2021-04-27
  • 2022-12-23
  • 2021-11-13
  • 2018-02-26
  • 2022-02-22
猜你喜欢
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-11-13
  • 2022-03-01
  • 2021-11-11
  • 2022-12-23
相关资源
相似解决方案