Cloudera im 4. Quartal 2025 als führender Anbieter für Data-Fabric-Plattformen ausgezeichnet von The Forrester Wave™

Lesen sie den Bericht
  • Cloudera Cloudera
  • Fördern Sie die Entwicklung und den Einsatz von KI, und schützen Sie gleichzeitig alle Phasen des KI-Lebenszyklus.

    Der Cloudera AI Inference Service basiert auf NVIDIA NIM-Microservices und bietet mit bis zu 36-mal schnellerer Inferenz auf NVIDIA-GPUs und fast 4-mal höherem CPU-Durchsatz eine marktführende Leistung. So optimiert er das KI-Management und die -Governance nahtlos in öffentlichen und privaten Clouds.

    AI Inference Service – Diagramm

    Ein Service für alle Anforderungen Ihres Unternehmens an KI-Inferenz

    Bereitstellung mit einem Klick: Bringen Sie Ihr Modell schnell von der Entwicklung in die produktive Nutzung – unabhängig von der Umgebung.

    Eine gesicherte Umgebung: Profitieren Sie von robuster, durchgängiger Sicherheit in allen Phasen Ihres KI-Lebenszyklus.

    Eine Plattform: Verwalten Sie Ihre Modelle allesamt reibungslos auf einer einzigen Plattform, die all Ihre KI-Anforderungen erfüllt.

    Unterstützung aus einer Hand: Erhalten Sie von Cloudera einheitlichen Support für sämtliche Fragen zu Hardware und Software.

    Hauptmerkmale des Cloudera AI Inference Service

    Hybrid- und Multi-Cloud-Unterstützung

    Ermöglichen Sie die Bereitstellung über On-Premises-*, öffentliche Cloud- und hybride Umgebungen hinweg, um unterschiedliche Anforderungen von Unternehmensinfrastrukturen flexibel zu erfüllen.

    Detaillierte Daten- und Modell-Lineage*

    Ermöglichen Sie eine umfassende Nachverfolgbarkeit und Dokumentation von Datentransformationen und Ereignissen im Modell-Lebenszyklus, und verbessern Sie so die Reproduzierbarkeit und Überprüfbarkeit.

    Sicherheit auf Unternehmensniveau

    Implementieren Sie robuste Sicherheitsmaßnahmen, einschließlich Authentifizierung, Autorisierung* und Datenverschlüsselung, um sicherzustellen, dass Daten und Modelle während der Übertragung und im Ruhezustand geschützt sind.

    Inferenzfunktionen in Echtzeit

    Profitieren Sie von Prognosen in Echtzeit mit geringer Latenz und Batch-Verarbeitung für größere Datensätze. Dadurch sind Sie flexibler bei der Bereitstellung von KI-Modellen auf Basis verschiedener Leistungskennzahlen.

    Hochverfügbarkeit und dynamische Skalierung

    Bewältigen Sie effizient schwankende Lasten, und stellen Sie durch Konfigurationen für Hochverfügbarkeit und dynamischen Skalierungsfunktionen gleichzeitig einen kontinuierlichen Service sicher.

    Flexible Integration

    Integrieren Sie problemlos vorhandene Workflows und Anwendungen mit Open Inference Protocol APIs für herkömmliche ML-Modelle und einer mit OpenAI kompatiblen API für LLMs.

    Unterstützung zahlreicher KI-Frameworks

    Stellen Sie ganz einfach eine Vielzahl von Modellarten durch die Integration gängiger ML-Frameworks wie TensorFlow, PyTorch, Scikit-learn und Hugging Face Transformers bereit.

    Fortschrittliche Bereitstellungsmuster

    Führen Sie neue Versionen von Modellen sicher und inkrementell mit ausgereiften Bereitstellungsstrategien wie Canary- und Blue-Green-Implementierungen* sowie A/B-Tests* ein.

    Offene APIs

    Implementieren, verwalten und überwachen Sie Online-Modelle und -Anwendungen*, und erleichtern Sie die Integration durch CI/CD-Pipelines und andere MLOPs-Tools dank der Einhaltung offener Standards.

    Betriebliche Überwachung*

    Überwachen Sie kontinuierlich GenAI-Modellmetriken wie Sentiment, Benutzerfeedback und Drift, die wesentlich sind, um Qualität und Leistung von Modellen aufrechtzuerhalten.

    * Funktion demnächst verfügbar Kontaktieren Sie uns gerne, wenn Sie weitere Informationen wünschen.

    Hauptmerkmale des Cloudera AI Inference Service

    Hybrid- und Multi-Cloud-Unterstützung

    Ermöglichen Sie die Bereitstellung über On-Premises-*, öffentliche Cloud- und hybride Umgebungen hinweg, um unterschiedliche Anforderungen von Unternehmensinfrastrukturen flexibel zu erfüllen.

    Detaillierte Daten- und Modell-Lineage*

    Ermöglichen Sie eine umfassende Nachverfolgbarkeit und Dokumentation von Datentransformationen und Ereignissen im Modell-Lebenszyklus, und verbessern Sie so die Reproduzierbarkeit und Überprüfbarkeit.

    Sicherheit auf Unternehmensniveau

    Implementieren Sie robuste Sicherheitsmaßnahmen, einschließlich Authentifizierung, Autorisierung* und Datenverschlüsselung, um sicherzustellen, dass Daten und Modelle während der Übertragung und im Ruhezustand geschützt sind.

    Inferenzfunktionen in Echtzeit

    Profitieren Sie von Prognosen in Echtzeit mit geringer Latenz und Batch-Verarbeitung für größere Datensätze. Dadurch sind Sie flexibler bei der Bereitstellung von KI-Modellen auf Basis verschiedener Leistungskennzahlen.

    Hochverfügbarkeit und dynamische Skalierung

    Bewältigen Sie effizient schwankende Lasten, und stellen Sie durch Konfigurationen für Hochverfügbarkeit und dynamischen Skalierungsfunktionen gleichzeitig einen kontinuierlichen Service sicher.

    Flexible Integration

    Integrieren Sie problemlos vorhandene Workflows und Anwendungen mit Open Inference Protocol APIs für herkömmliche ML-Modelle und einer mit OpenAI kompatiblen API für LLMs.

    Unterstützung zahlreicher KI-Frameworks

    Stellen Sie ganz einfach eine Vielzahl von Modellarten durch die Integration gängiger ML-Frameworks wie TensorFlow, PyTorch, Scikit-learn und Hugging Face Transformers bereit.

    Fortschrittliche Bereitstellungsmuster

    Führen Sie neue Versionen von Modellen schrittweise und sicher mit ausgereiften Bereitstellungsstrategien wie Canary- und Blue-Green-Implementierungen* sowie A/B-Tests* ein.

    Offene APIs

    Implementieren, verwalten und überwachen Sie Modelle und Anwendungen*, und erleichtern Sie die Integration mit CI/CD-Pipelines und anderen MLOPs-Tools dank APIs, die mit offenen Standards kompatibel sind.

    Betriebliche Überwachung*

    Überwachen Sie kontinuierlich wichtige GenAI-Modellmetriken wie Sentiment, Benutzerfeedback und Drift, die entscheidend sind, um Qualität und Leistung von Modellen aufrechtzuerhalten.

    * Funktion demnächst verfügbar. Kontaktieren Sie uns gerne, wenn Sie weitere Informationen wünschen.

    Demo

    Überzeugen Sie sich selbst davon, wie einfach die Modellbereitstellung sein kann

    Erfahren Sie, wie einfach Sie mit den leistungsstarken Tools von Cloudera große Sprachmodelle bereitstellen können, um umfangreiche KI-Anwendungen effektiv zu verwalten.

    Integration der Modellregistrierung: Speichern, versionieren und verwalten Sie Modelle einfach über das zentrale Repository Cloudera AI Registry, und greifen Sie auf diese zu.

    Einfache Konfiguration und Bereitstellung: Stellen Sie Modelle in Cloud-Umgebungen bereit, richten Sie Endpunkte ein, und passen Sie für höhere Effizienz die automatische Skalierung an.

    Überwachung der Leistung: Beheben Sie Fehler und optimieren Sie die Leistung basierend auf wichtigen Metriken wie Latenz, Durchsatz, Ressourcenauslastung und Modellzustand.

    headshot of Sanjeev Mohan
    Mit Cloudera AI Inference, das auf der KI-Expertise von NVIDIA beruht, können Sie das volle Potenzial von Daten in großem Maßstab ausschöpfen und sie mit Sicherheitsfunktionen auf Unternehmensniveau schützen. So sind Ihre Daten zuverlässig geschützt, und Sie können Workloads vor Ort oder in der Cloud ausführen, während Sie KI-Modelle effizient und mit der nötigen Flexibilität und Governance bereitstellen.

    – Sanjeev Mohan, leitender Analyst, SanjMo

    Erfahren Sie mehr

    Dokumentation

    Material und Anleitungen für Ihren Einstieg

    Die Dokumentation zum Cloudera AI Inference Service enthält, von detaillierten Funktionsbeschreibungen bis hin zu praktischen Implementierungshandbüchern, alle Informationen, die Sie benötigen, um schneller loslegen zu können.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.