Migration von der HDP zur CDP? Nehmen Sie an diesem Webinar teil, um die Prozesse für das Upgrade auf die CDP kennenzulernen und Empfehlungen zu erhalten.

Sicheres Speichern, Verarbeiten und Analysieren Ihrer strukturierten und unstrukturierten ruhenden  Daten


Hortonworks Data Platform (HDP) ist ein kosteneffizientes Open-Source-Framework für die verteilte Speicherung und Verarbeitung umfangreicher Datensätze aus mehreren Quellen. HDP modernisiert Ihre IT-Infrastruktur und sorgt für die Sicherheit Ihrer Daten – in der Cloud oder am Standort – und hilft Ihnen gleichzeitig dabei, neue Einnahmequellen aufzubauen, das Kundenerlebnis zu verbessern und die Kosten zu kontrollieren. 

Migrieren Sie zur Cloudera Data Platform

Wählen Sie unten Ihre aktuelle Plattform aus, um Migrationsempfehlungen sowie auf Ihre Umgebung zugeschnittene Ressourcen zu erhalten. 

Wichtige Vorteile & Merkmale

Ein Container-basierter Service macht es möglich, Anwendungen in Minuten zu entwickeln und zu veröffentlichen. Containerisierung ermöglicht das Ausführen mehrerer Versionen einer Anwendung, sodass Sie schnell neue Funktionen erstellen und entwickeln und neue Versionen von Services testen können – und das ohne Unterbrechung der alten Versionen. Außerdem unterstützt HDP Drittanbieter-Apps in Docker-Containern sowie in systemeigenen YARN-Containern. Erasure Coding steigert die Speichereffizienz um 50 % und ermöglicht so eine effektive Datenreplikation für geringere Gesamtbetriebskosten.

HDP stellt die Grundlage zur Unterstützung von GPUs in Apache Hadoop-Clustern dar und verbessert die Leistung von für Data Science und KI-Anwendungsfälle erforderlichen Berechnungen. Es ermöglicht GPU-Pooling zum Teilen von GPU-Ressourcen mit einer größeren Anzahl an Workloads für Kosteneinsparungen. Außerdem unterstützt es die GPU-Isolierung, bei der einer Anwendung eine GPU gewidmet wird, sodass keine andere Anwendung auf diese GPU zugreifen kann.

HDP umfasst eine containerisierte technische Vorschau von TensorFlow, die in Kombination mit GPU-Pooling für leichtere Konzipierung, Entwicklung und Schulung in Bezug auf Deep-Learning-Modelle sorgt.

Mit HDP profitieren Sie von der Möglichkeit, Big-Data-Workloads in Hybrid- und Multi-Cloud-Umgebungen bereitzustellen, ohne an eine bestimmte Cloud-Architektur gebunden zu sein. So werden Kunden in die Lage versetzt, nahtlos Big-Data-Cluster über die Cloud ihrer Wahl zu erstellen und zu verwalten. HDP ist Cloud-unabhängig und automatisiert die Cloud-Bereitstellung zur Erleichterung von Big-Data-Implementierungen und Optimierung der Nutzung von Cloud-Ressourcen.

Unterstützung für Cloud-Storage zur Speicherung unbegrenzter Datenmengen im Originalformat, einschließlich Microsoft ADLS, WASB, AWS S3 und Google Cloud Storage. Cloudbreak ermöglicht eine simple Bereitstellung von Clustern in der Cloud durch die Integrierung von HDP mit dem Cloud-Anbieter Ihrer Wahl

HDP umfasst verbesserte Abfrageleistung für schnellere Abfragen. Hive LLAP, die schnellste Apache-Hive-Engine, führt eine Multi-Tenant-Umgebung aus, ohne Ressourcenkonkurrenz auszulösen. Diese Integration beschleunigt Abfragen, die häufig in Business-Intelligence-Szenarien verwendet werden, wie Abfragen zum Zusammenführen und Sammeln. Zusätzlich zur Abfragenoptimierung ermöglicht Hive auch die Erstellung von Ressourcenpools zur detaillierten Ressourcenverteilung.

HDP ermöglicht standardmäßig ACID-Transaktionen für einfachere Updates in Hive-Tabellen und zur Unterstützung von DSGVO-Anforderungen. Als Echtzeit-Datenbank überbrückt Hive die Leistungskluft zwischen Workloads mit geringer Latenz auf der einen und hoher Durchsatzrate auf der anderen Seite – so kann in kürzerer Zeit ein größeres Datenvolumen verarbeitet werden.

HDP bietet weiterhin umfassende Sicherheit und Governance. Die Sicherheit von HDP ist in Ebenen integriert und umfasst Funktionen zur Authentifizierung, Autorisierung, Verantwortlichkeit und zum Datenschutz. Durch die Integration von Sicherheit und Governance können Sicherheitsexperten klassifikationsbasierte Sicherheitsrichtlinien festlegen. Außerdem können Unternehmen mit Tools zur Daten-Governance Daten über ihr gesamtes Ökosystem hinweg einheitlich klassifizieren.

Zusätzliche Funktionen ermöglichen detaillierteres Auditing von Ereignissen, was Auditoren die Arbeit erleichtert. Auditoren und Nutzer sehen die vollständige Prüfkette, während sich die Daten durch das Ökosystem bewegen. Durch Tag-Propagierung können Auditoren und Nutzer sehen, wohin sich die Daten im Unternehmen bewegen, und den Kontext von empfindlichen Daten behalten. Zeitbasis-Richtlinien gewähren einem bestimmten Nutzer vorübergehend Zugriff.

Data Hub erleichtert die Verwaltung, Überwachung und Orchestrierung aller Dienste in allen Umgebungen über eine zentrale Oberläche.

Your form submission has failed.

This may have been caused by one of the following:

  • Your request timed out
  • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.