目录一、什么是服务service?二、service分类2.1 ClusterIP2.2 nodePort2.3 LoadBalancer(付费方案)2.4 ExternalName
在k8s里面,每个Pod都会被分配一个单独的IP地址,但这个IP地址会随着Pod的销毁而消失,重启pod的ip地址会发生变化,此时客户如果访问原先的ip地址则会报错 ;
Service (服务)就是用来解决这个问题的, 对外服务的统一入口,防止pod失联,定义一组pod的访问策略(服务发现、负载均衡) ;
一个Service可以看作一组提供相同服务的Pod的对外访问接口,作用于哪些Pod是通过标签选择器来定义的 ,Service是一个概念,主要作用的是节点上的kube-proxy服务进程 ;
举例来说,定义了3个商品微服务,由网关作为统一访问入口, 前端不需要关心它们调用了哪个后端副本。 然而组成这一组后端程序的 Pod 实际上可能会发生变化, 前端客户端不应该也没必要知道,而且也不需要跟踪这一组后端的状态。
简而言之,Service 定义的这种抽象能够解耦这种关联;
根据使用场景的不同,service可以分成下面几类
默认类型,自动分配一个【仅集群内部】可以访问的虚拟IP
对外访问应用使用,在ClusterIP基础上为Service在每台机器上绑定一个端口,就可以通过: ip+NodePort来访问该服务 ,在之前搭建k8s集群部署nginx的时候我们使用过;
把集群外部的服务引入到集群内部来,在集群内部直接使用。没有任何类型代理被创建,这只有 kubernetes 1.7或更高版本的kube-dns才支持。
service和pod之间是通过 selector.app进行关联的 ,对应到yaml中的核心配置如下:
spec: # 描述
selector: # 标签选择器,确定当前service代理控制哪些pod
app: test-nginx
yaml 配置模板文件
apiVersion: v1
kind: Service
metadata:
creationTimestamp: null
name: test-svc
spec:
ports:
- port: 80 # service服务端口
protocol: tcp
targetPort: 80 # pod端口,常规和容器内部端口一致
selector:
app: test-nginx-pod
status:
loadBalancer: {}
ClusterIP 属于service的一种,一般作为集群内部应用互相访问时使用,接下来通过实际演示进行详细的说明;
apiVersion: apps/v1
kind: Deployment
metadata:
name: congge-deploy
namespace: dev
spec:
replicas: 3
selector:
matchLabels:
app: congge-nginx-pod
template:
metadata:
labels:
app: congge-nginx-pod
spec:
containers:
- name: congge-nginx
image: nginx:1.23.0
使用apply命令创建pod,
kubectl apply -f deploy-nginx-pod.yaml
可以看到,成功创建了一个3副本的pod集群;
kubectl expose deploy congge-deploy --name=svc-nginx1 --type=ClusterIP --port=80 --target-port=80 -n default
执行成功之后,可以看到创建了一个clusterIP类型的service;
有了这个clusterIp服务之后,后续不管nginx服务扩缩容,还是nginx的pod的IP地址如何变化,外部只需要统一访问这个clusterIP分配的这个IP+端口即可;
多了个类型是ClusterIP的,通过curl clusterIp+port可以访问
kubectl get deployment,pod,svc -n dev -o wide
上面了解到clusterIp这种方式一般作为集群内部各应用访问时使用,但实际业务场景中,有些应用服务需要暴露出去,通过外网去访问,这时候就需要创建NodePort,这个在k8s搭建篇中最后部署nginx的时候有提到;
在上面我们创建了一个基于clusterIp类型的service
使用下面的命令创建一个基于 NodePort 的service
kubectl expose deploy congge-deploy --name=svc-nodeport-nginx1 --type=NodePort --port=80 --target-port=80 -n default
执行完成之后,就多了一个NodePort的service
使用浏览器访问下当前主机的公网IP就可以访问了(master或者node节点都可以访问);
通过这个命令,可以查看上述创建的NodePort详细信息;
kubectl describe svc svc-nodeport-nginx1 -n default
Kubeadm部署,暴露端口对外服务,会随机选端口,默认范围是30000~32767,也可以手动修改和指定端口范围
可以使用下面的命令查看endpoint列表
kubectl get ep svc-nodeport-nginx1 -n default -o wide
Service所处的位置就如同图中展示的,处在客户端和pod之间,这就很像nginx或者其他具备网关的组件的能力了,事实上,也差不多就是我们理解的那样,一个Service的服务背后可能挂载着N多个Pod,那么具体来说,Service如何分发请求到后端的多个Pod的呢?
kubernetes提供了两种负载均衡策略 :
查看pod信息,显示了上面创建的以congge-deploy开头的3个nginx
其实来说,这也就是对应了3个pod中的3个nginx容器,如果使用curl的方式查看其中某个nginx,可以正常输出nginx欢迎页面的内容;
接下来,我们只需要进入到nginx容器内部,修改下nginx欢迎页的html内容,就可以看出Service的负载均衡效果了;
进入Docker容器进行html内容的修改
#进入容器
kubectl exec -it congge-deploy-768455649c-2kv5r -n default /bin/sh
kubectl exec -it congge-deploy-768455649c-mfkbf -n default /bin/sh
kubectl exec -it congge-deploy-768455649c-xlh7s -n default /bin/sh
#执行修改
echo "hello this is node1 " > /usr/share/nginx/html/index.html
echo "hello this is node2 " > /usr/share/nginx/html/index.html
echo "hello this is node3 " > /usr/share/nginx/html/index.html
执行过程
接下来使用当前主机节点IP+图中的端口在浏览器访问下
我们连续访问多次,看下返回的内容如何
第一次:
第二次:
当然,可以通过在当前节点上通过curl cluserIP的方式,效果类似
其实也可以查看下当前创建这个SVC的时候默认的配置,使用yaml格式输出一下
kubectl get svc svc-nodeport-nginx1 -n default -o yaml
总结:通过上面的实际操作,在默认情况下,负载均衡为基于随机的这种策略;
到此这篇关于k8s service使用详解(云原生kubernetes)的文章就介绍到这了,更多相关k8s service使用内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!
--结束END--
本文标题: k8sservice使用详解(云原生kubernetes)
本文链接: https://lsjlt.com/news/196014.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0