Your browser is out of date

Update your browser to view this website correctly. Update my browser now

×

Speichern

Die unendlich skalierbare, flexible Architektur von Hadoop (basierend auf dem HDFS-Dateisystem) ermöglicht Unternehmen, unbegrenzte Mengen und Arten von Daten—alle auf einer einzigen Open-Source-Plattform auf branchenüblicher Hardware.

Erfahren Sie mehr über HDFS

Erfahren Sie mehr über Apache Kudu

Man using computer

Team working on blueprint

Verarbeiten

Sie lassen sich im Handumdrehen mit vorhandenen Systemen oder Anwendungen integrieren, um Daten in oder aus Hadoop über eine Bulkload-Verarbeitung (Apache Sqoop) oder Streaming (Apache Flume, Apache Kafka) zu verschieben.


Transformieren Sie komplexe Daten im Maßstab, indem Sie mehrere Datenzugriffsoptionen (Apache Hive, Apache Pig) für Batch- (MR2) oder schnelle In-Memory- (Apache Spark™) Verarbeitung verwenden. Verarbeiten Sie Streaming-Daten, wenn sie über Spark Streaming in Ihrem Cluster ankommen.

Erfahren Sie mehr über Apache Spark™


Entdecken

Analysten interagieren spontan mit originalgetreuen Daten mit Apache Impala, der Data Warehouse von Hadoop. Mit Impala genießen Analysten SQL-Performance und -Funktionalität mit BI-Qualität plus Kompatibilität mit allen führenden BI-Tools.

Mit Cloudera Search, einer Integration von Hadoop und Apache Solr, können Analysten den Prozess beim Erkennen von Mustern in Daten jeglichen Umfangs und aller Formate beschleunigen, insbesondere in Kombination mit Impala.

Erfahren Sie mehr über Apache Impala

Erfahren Sie mehr über Cloudera Search

Side view of two men looking at computer

three men sitting together, looking at laptop

Modell

Mit Hadoop haben Analysten und Data Scientists die Flexibilität, fortgeschrittene statistische Modelle mithilfe einer Mischung aus Partnertechnologien sowie Open-Source-Frameworks wie Apache Spark™ zu entwickeln und zu wiederholen.


Bereitstellen

Der verteilte Datenspeicher für Hadoop, Apache HBase, unterstützt schnelles, zufälliges Lesen/Schreiben („Fast Data“), das für Onlineanwendungen erforderlich ist.

Erfahren Sie mehr über Apache HBase

Man sitting in office with laptop on lap

CDH: Basierend auf Open Source und Open Standards

CDH, die weltweit bekannteste Hadoop-Distribution, ist eine hundertprozentige Open-Source-Plattform von Cloudera. Sie umfasst alle führenden Hadoop-Ecosystem-Komponenten, um unbegrenzt viele Daten zu speichern, zu verarbeiten, zu entdecken, zu modellieren und zu bedienen. Zudem wurde es entwickelt, um die höchsten Unternehmensstandard für Stabilität und Zuverlässigkeit zu erfüllen.

CDH basiert komplett auf offenen Standards für Langzeitarchitekturen. Als Hauptkurator für offene Standards in Hadoop verfügt Cloudera über eine Erfolgsbilanz bei der Einführung neuer Open-Source-Lösungen (z. B. Apache Spark™, Apache HBase und Apache Parquet), die schließlich vom gesamten Ökosystem übernommen werden. 

Erfahren Sie mehr über die wichtigen CDH-Komponenten

Erfahren Sie mehr über Open Source und offene Standards

Jetzt ausprobieren

Developers working on their computers in office

Your form submission has failed.

This may have been caused by one of the following:

  • Your request timed out
  • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.