• 如何在Digitalocean上的集群中添加负载均衡器

    我使用Kubeadm和3个液滴在digitalocean上创建了一个集群。由于这不是Digital ocean的托管Kubernetes集群,因此如何手动设置LoadBalancer? 我尝试通过将以下行添加到部署配置文件中来添加外部负载均衡器 ... replicaCount: 1 image: repository: turfff/node-replicas tag: latest pullPolicy: IfNotPresent ... service: type: LoadBala...
  • 11条考虑因素,助你构建安全易用的多租户集群!

    6月16日晚上8点,为你全面解读Istio最新发布的两个新版本!此外,我们还将了解一些关于安全和使用方面的问题。多租户集群的operator必须将租户彼此隔离,以最大程度地减少受污染或恶意租户对集群和其他租户的损害。而多租户集群所面临的主要挑战是需要平在安全性和可用性之间达到良好平衡。Rancher支持多租户,其多租户体系在决策的部分分为三个级别:全局、集群和项目。Rancher项目隔离旨在监管Pod之间的直接访问。通过优先级,Kubernetes会在可用集群资源不足时调整计划的pod和终止的pod。考虑到这一点,用户应该无法使用优先级来强制终止其他项目的pod。
  • 谐云Calico大规模场景落地实践

    本文主要介绍谐云在Calico容器网络在实践过程中,面对在大规模容器场景,根据每种Calico网络模式的优劣势,如何进行选型。概述Calico是一个纯三层的方案,为虚拟机及容器提供多主机间通信。Calico网络模式Calico本身支持多种网络模式,从overlay和underlay上区分。IPIP RR采用Calico RR模式通过建立路由反射器接点减少每个工作节点的BGP邻居数量,保证了集群支撑规模。规模要求,在Calico BGP模式下,如果不与网络设备建立BGP连接,Node只能在同一个局域网内。路由黑洞问题使用Calico Downward Default模型组网时,Node使用EBGP模式与Node建立邻居关系。
  • 搭建Prometheus平台,你必须考虑的6个因素

    当前,Prometheus被许多企业和组织广泛使用,以监控其容器和微服务。Prometheus已成为开发人员用来在云原生环境中收集和理解指标的首选监控工具。Prometheus是一个可以垂直弹性伸缩的Go程序,为单个容器或单个主机部署它时十分容易。这一情况下,最直接的选择是在整个企业中运行一组Prometheus服务器,但这带来了一些挑战。例如,跨数十甚至数百台Prometheus服务器管理和合并数据并不容易。简单的方法是为每个命名空间或每个集群都准备一个单独的Prometheus服务器。因此,声称与Prometheus兼容的商业产品应与Grafana等工具兼容。
  • 近日,Istio 1.6 正式发布!引入Istiod,升级机制显著改进

    来源:分布式实验室作者:尼古拉斯(译)上周,我们高兴地向大家宣布Istio 1.6版本的正式发布!下面来看本次新版本中的部分重要功能:1简化、简化、再简化在上个版本中,我们引入了Istiod。在Istio 1.6中,我们已经完成了全面过渡,将所有功能一并转移到Istiod内。2贯穿生命周期的更佳体验我们将继续为Istio的安装与升级创造更好的体验。Istio升级机制也在多个方面得到显著改进。首先,我们现在支持对Istio控制平台本体进行金丝雀测试。3观察功能也有不少企业采用Istio,单纯是为了更好地观察分布式应用程序。Istio改进了对secret的处理,借此为Kubernetes Ingress提供更好的支持能力。
  • 修复方法:禁止使用“ pods”:用户“ system:anonymous”无法监视名称空间“ default”中API组“”中的资源“ pods”

    我试图通过k8运行我的火花,我已经使用以下命令设置了RBAC: kubectl create serviceaccount spark kubectl create clusterrolebinding spark-role --clusterrole=edit --serviceaccount=default:spark --namespace=default 来自k8集群外部的Spark命令: bin/spark-submit --master k8s://https://<master_ip>:644...
  • DevOps已死,NoOps永生

    时下的IT趋势中,DevOps正是一个热语。最近几年的DevOps 就是这样的。但再过几年,你将会听到另外一个流行词:NoOps。DevOps和NoOps的差异DevOps是开发和运维的融合,是开发和运维工程师共同协作,定义应用从设计到交付全生命周期过程的实践。NoOps的意思是无须操作。要实现DevOps并恰如其分的使用它。为何以前没有DevOps?为何我所需的比DevOps能做到的要多?这个原因很好理解,当你历经波折将DevOps引入到你公司后,你可能会认为状态良好啦。相对于DevOps,NoOps是需要技术支持的。说到最后,其实无所谓DevOps或NoOps。那么,从这个角度来看,什么是NoOps?
  • 同程艺龙大数据在Kubernetes上的磨合与适配之路

    我们都会遇到存储组件应不应该上Kubernetes,我到底应不应该用共享存储的问题。在部署Kudu组件的时候,我们延用ES的套路,发现节点域名解析不到的问题,当时我们还没有将Kubernetes内部域名同步到公司层面的DNS。在分布式系统中,很常见的场景是客户端连接到Master节点,Master节点会返回Worker节点域名,在Kubernetes集群外部的机器是没法访问到Worker的域名的。因为我们在2018年所有的组件已经on Docker,我们只要将组件的部署方式迁移到Kubernetes上来管理,所以像Kafka,TiKV,PG,ZK这些组件,我们都可以轻松的上Kubernetes。
  • 我们如何做到不停机将ZooKeeper迁移到Kubernetes

    不过,我们不打算深入讨论如何为 ZooKeeper 配置 Kubernetes 拓扑,也不打算深入讨论底层的状态就绪检查机制,因为有很多方法可以实现这些操作。准备好先决条件我们从一个可运行的 ZooKeeper 集群开始,确保主机上的服务能够与 Kubernetes 集群通信。就这样,ZooKeeper 集群现在运行在 Kubernetes 中,并带有之前所有的数据。
  • 一文读懂OpenShift总体架构设计

    本文将基于OpenShift当前最为成熟稳定的3.11版本,介绍其设计理念和总体架构,并深入介绍和分析OpenShift网络、存储、权限控制、服务目录等核心功能,在部署实践OpenShift云原生PaaS平台前,为读者建立起完备扎实的理论基础。OpenShift在架构上具有以分层、应用为中心和功能模块解耦等主要特点。分层架构OpenShift采用分层架构,利用Docker、Kubernetes及其他开源技术构建起一个PaaS云计算平台。OpenShift采用Kubernetes作为其容器编排引擎,同时负责管理集群。事实上,Kuberbnetes正是OpenShift的内核。基于上述新增功能,OpenShift支持如图所示的应用从构建到发布的全自动化的过程。
  • GKE上的istio-ingress和istio-insressgateway之间的区别

    我对这两个感到困惑。这两个都是在启用了Istio插件的GKE群集上提供的,都是LoadBalancer类型的,但是它们位于不同的命名空间中。他们的用例可能是什么? gke系统名称空间 vagrant@ubuntu-xenial:~/cloud_donws/iac$ kubectl get svc -n gke-system NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) ...
  • Kubernetes NGINX-INGRESS我需要运行NGINX服务吗?

    我正在尝试创建NGINX-INGRESS(首先在本地创建,然后在负载均衡器之后部署到AWS)。但是我是Kubernetes的新手,并且我了解NGINX的Ingress模型-这些配置使我感到困惑,因为我应该部署NGINX-INGRESS服务,Ingress或两者都部署 I am working with multiple Flask-Apps I would like to have routed by path (/users, /content, etc.) My services are named u...
  • 通过入口访问Angular应用时找不到404资源

    我在Google Cloud上进行了群集设置,其中一项部署是在Nginx上进行容器化Angular应用程序: apiVersion: apps/v1 kind: Deployment metadata: name: product-adviser-front-deployment labels: app: angular-front version: v1 spec: replicas: 1 selector: matchLabels: name: pro...
  • 关于 Kubernetes 规划的灵魂 n 问

    作者 | 易立阿里云资深技术专家Kubernetes 已经成为企业新一代云 IT 架构的重要基础设施,但是在企业部署和运维 Kubernetes 集群的过程中,依然充满了复杂性和困扰。使用最新一代 Intel Cascade Lake CPU, 突发主频提升至 3.2GHz, 各场景 E2E 性能大幅提升,并在深度学习的多种场景有数倍的提升。Docker Engine 底层的容器生命周期管理也是基于 containerd 实现。此外,绝大多数容器生态厂商,如安全、监控、日志、开发等对 Docker Engine 的支持比较完善,对 containerd 的支持也在逐渐补齐。所以在 Kubernetes 运行时环境,对安全和效率和定制化更加关注的用户可以选择 containerd 作为容器运行时环境。19 年 9 月份我们发布了基于轻量虚拟化技术的 RunV 安全沙箱。
  • Kubernetes上的bokeh服务定期重新启动是否正常?

    我在docker容器中提供了一个bokeh仪表板,该容器在kubernetes上运行。我可以远程访问仪表板,没有问题。但是我注意到我的包含bokeh服务代码的广告连播重新启动了很多次,即在过去2小时内重新启动了14次。有时状态会返回为“ CrashLoopBackOff”,而有时状态通常为“正在运行”。 我的问题是,关于bokeh服务的工作方式是否需要kubernetes如此频繁地重新启动?与内存有关(OOMKilled)吗? 这是我的describe pod的一部分: Name: ...
  • 在kubernetes中运行时,为什么我的docker容器会获得根组?

    我正在确保我们所有的容器都不以root身份运行。我在使用群组访问时遇到了一些麻烦。简短的版本,当我构建一个容器并在本地运行时,得到以下信息: docker run -it --entrypoint /bin/sh f83823c8ee6c ~ $ id uid=1000(metadata) gid=1000(metadata) 但是,当我在kubernetes集群中运行相同的容器时,会得到以下信息: kubectl -n kube-system get pods -l app=metadata | gre...
公告

欢迎访问 goshare  点击这里设置您的邮箱  可以接收站内跟帖、回复邮件提醒,不错过任何一条消息。

关注公众号订阅更多技术干货! 码农俱乐部