Definitionen durchsuchen :
Definition

Google Kubernetes Engine (GKE)

Google Kubernetes Engine (GKE) ist ein Verwaltungs- und Orchestrierungssystem für Docker-Container und Container-Cluster, die innerhalb der Public-Cloud-Dienste von Google ausgeführt werden. Google Kubernetes Engine basiert auf Kubernetes, dem Open-Source-Container-Management-System von Google.

Unternehmen verwenden Google Kubernetes Engine in der Regel hierfür:

  • Erstellen oder Ändern der Größe von Docker-Container-Clustern
  • Erstellen von Container-Pods, Replikations-Controllern, Jobs, Diensten oder Lastverteilern
  • Ändern der Größe von Anwendungs-Controllern
  • Update und Upgrade von Container-Clustern
  • Debuggen von Container-Clustern

Benutzer können mit Google Kubernetes Engine über die gcloud-Befehlszeilenschnittstelle (Command Line Interface, CLI) oder die Google Cloud Platform Console interagieren.

Google Kubernetes Engine wird häufig von Softwareentwicklern verwendet, die neue Unternehmensanwendungen erstellen und testen. Container werden auch von Administratoren verwendet, um die Anforderungen an die Skalierbarkeitund Leistung von Unternehmensanwendungen, beispielsweise von Webservern, besser zu erfüllen.

Google Kubernetes Engine besteht aus einer Gruppe von Google Compute Engine-Instanzen, auf denen Kubernetes läuft. Ein Master-Knoten verwaltet ein Cluster von Docker-Containern. Er führt auch einen Kubernetes-API-Server aus, um mit dem Cluster zu interagieren und Aufgaben auszuführen, wie das Bedienen von API-Anfragen und das Planen von Containern. Neben dem Master-Knoten kann ein Cluster auch einen oder mehrere Knoten umfassen, auf denen jeweils eine Docker-Laufzeit und ein Kubelet-Agent laufen, die für die Verwaltung von Docker-Containern benötigt werden.

Benutzer der Google Kubernetes Engine organisieren einen oder mehrere Container in Pods, die logische Gruppen von zusammengehörigen Containern darstellen. Zu diesen Gruppen können zum Beispiel Logfile-System-Container, Checkpoint- oder Snapshot-System-Container oder Datenkompressions-Container gehören. In ähnlicher Weise könnten auch Netzwerk-Proxys, Bridges und Adapter in einem Pod organisiert sein. Im Allgemeinen werden identische Container nicht im selben Pod organisiert. Benutzer erstellen und verwalten diese Pods über Jobs.

Wenn ein Pod mit zugehörigen Containern nicht mehr verfügbar ist, kann der Zugriff auf diese Container unterbrochen werden. Die meisten Anwendungen in Containern erfordern Redundanz, um sicherzustellen, dass die Pods immer verfügbar sind. Google Kubernetes Engine enthält einen Replikations-Controller, mit dem Benutzer die gewünschte Anzahl von Pod-Duplikaten zu einem bestimmten Zeitpunkt ausführen können.

Gruppen von Pods können in Services organisiert werden, so dass auch nicht-Container-fähige Anwendungen auf andere Container zugreifen können, ohne dass zusätzlicher Code benötigt wird. Wenn ein Unternehmen beispielsweise drei Pods hat, die zur Verarbeitung von Daten von einem Client-System verwendet werden, ermöglicht das Einrichten der Pods als Dienst dem Client-System, jeden der Pods jederzeit zu verwenden, unabhängig davon, welcher Pod tatsächlich die Arbeit erledigt.

Google berechnet derzeit eine pauschale Gebühr für Kubernetes-Engine-Dienste, die von der Anzahl der Knoten in einem Cluster abhängt. Ein Cluster mit fünf oder weniger Knoten ist derzeit kostenlos. Die Preise werden nach verschiedenen Modi berechnet. Für Autopilot-Cluster fallen nach der kostenlosen Stufe pauschal 0,10 US-Dollar pro Stunde und Cluster an, zuzüglich der CPU-, Speicher- und sitzungsspezifischen Speicherrechenressourcen, die für Pods bereitgestellt werden. Die Menge der Pod-Ressourcen basiert auf den Ressourcenanforderungen von Kubernetes PodSpec. Für System-Pods, die Leistung des Betriebssystems und nicht zugewiesenen Speicherplatz fallen keine Kosten an. Alle Autopilot-Ressourcen werden im Sekundentakt abgerechnet, es gibt keine Mindestgebühr. Pro vCPU in Autopilot fallen 0,0445 US-Dollar pro Stunde an. Der Pod-Speicherpreis hier liegt bei 0,0049225 US-Dollar pro GByte und Stunde. Der sitzungsspezifische Speicher kostet 0,0000548 US-Dollar pro GByte und Stunde.

Die CPU lässt sich Vierteln an vCPU-Kernen erweitern. Memory kann in Bereichen von einem GByte bis 6,5 GByte pro vCPU zur Verfügung gestellt werden. GKE bietet ein Service Level Agreement (SLA) mit einer Verfügbarkeit von 99,95 Prozent von Autopilot-Clustern und 99,9 Prozent bei Autopilot-Pods in verschiedenen Zonen.

Beim Standardmodus fällt eine Verwaltungsgebühr für die kostenlose Stufe von 0,10 US-Dollar pro Cluster und Stunde an. Diese Gebühren für Clusterverwaltung gelten nicht für Anthos-Cluster. Im Standardmodus kommen Worker-Knoten im Cluster zum Einsatz. Diese Instanzen werden im Sekundentakt mit einer Mindestnutzung von einer Minute berechnet. Auch hier offeriert Google ein SLA mit einer Verfügbarkeit der Steuerungsebene regionaler Zonen von 99,95 Prozent und 99,5 für die Steuerung zonaler Cluster.

Die Clusterverwaltungsgebühr von 0,10 US-Dollar pro Cluster und Stunde (wird in 1-Sekunden-Schritten berechnet) gilt für alle GKE-Cluster, unabhängig von Betriebsmodus, Clustergröße oder Topologie. Die kostenlose GKE-Stufe bietet monatlich 74,40 US-Dollar in Guthaben pro Rechnungskonto an, das auf zonale und Autopilot-Cluster angewendet wird.

Anwender, die vor der Nutzung von GKE detaillierte Preisinformationen wünschen, können sich diese im Google Cloud Pricing Calculator berechnen lassen.

Diese Definition wurde zuletzt im Juli 2021 aktualisiert
ComputerWeekly.de
Close