ClouderaNOW: Erfahren Sie mehr über KI-Agenten, Cloud-Bursting und Data Fabrics für KI | 8. April

Jetzt registrieren
  • Cloudera Cloudera
  • Fördern Sie die Entwicklung und den Einsatz von KI, und schützen Sie gleichzeitig alle Phasen des KI-Lebenszyklus.

    Der Cloudera AI Inference Service basiert auf NVIDIA NIM-Microservices und bietet mit bis zu 36-mal schnellerer Inferenz auf NVIDIA-GPUs und fast 4-mal höherem CPU-Durchsatz eine marktführende Leistung. So optimiert er das KI-Management und die -Governance nahtlos in öffentlichen und privaten Clouds.

    AI Inference Service – Diagramm

    Ein Service für alle Anforderungen Ihres Unternehmens an KI-Inferenz

    Bereitstellung mit einem Klick: Bringen Sie Ihr Modell schnell von der Entwicklung in die produktive Nutzung – unabhängig von der Umgebung.

    Eine gesicherte Umgebung: Profitieren Sie von robuster, durchgängiger Sicherheit in allen Phasen Ihres KI-Lebenszyklus.

    Eine Plattform: Verwalten Sie Ihre Modelle allesamt reibungslos auf einer einzigen Plattform, die all Ihre KI-Anforderungen erfüllt.

    Unterstützung aus einer Hand: Erhalten Sie von Cloudera einheitlichen Support für sämtliche Fragen zu Hardware und Software.

    Hauptmerkmale des Cloudera AI Inference Service

    Hybrid- und Multi-Cloud-Unterstützung

    Ermöglichen Sie die Bereitstellung über On-Premises-, öffentliche Cloud- und hybride Umgebungen hinweg, um unterschiedliche Infrastrukturanforderungen von Unternehmen flexibel zu erfüllen.

    Detaillierte Daten- und Modell-Lineage

    Ermöglichen Sie eine umfassende Nachverfolgbarkeit und Dokumentation von Datentransformationen und Ereignissen im Modell-Lebenszyklus, und verbessern Sie so die Reproduzierbarkeit und Überprüfbarkeit.

    Sicherheit auf Unternehmensniveau

    Implementieren Sie robuste Sicherheitsmaßnahmen, einschließlich Authentifizierung, Autorisierung* und Datenverschlüsselung, um sicherzustellen, dass Daten und Modelle während der Übertragung und im Ruhezustand geschützt sind.

    Inferenzfunktionen in Echtzeit

    Profitieren Sie von Prognosen in Echtzeit mit geringer Latenz und Batch-Verarbeitung für größere Datensätze. Dadurch sind Sie flexibler bei der Bereitstellung von KI-Modellen auf Basis verschiedener Leistungskennzahlen.

    Hochverfügbarkeit und dynamische Skalierung

    Bewältigen Sie effizient schwankende Lasten, und stellen Sie durch Konfigurationen für Hochverfügbarkeit und dynamischen Skalierungsfunktionen gleichzeitig einen kontinuierlichen Service sicher.

    Flexible Integration

    Integrieren Sie problemlos vorhandene Workflows und Anwendungen mit Open Inference Protocol APIs für herkömmliche ML-Modelle und einer mit OpenAI kompatiblen API für LLMs.

    Unterstützung zahlreicher KI-Frameworks

    Stellen Sie ganz einfach eine Vielzahl von Modellarten durch die Integration gängiger ML-Frameworks wie TensorFlow, PyTorch, Scikit-learn und Hugging Face Transformers bereit.

    Fortschrittliche Bereitstellungsmuster

    Führen Sie neue Versionen von Modellen sicher und inkrementell mit ausgereiften Bereitstellungsstrategien wie Canary- und Blue-Green-Implementierungen* sowie A/B-Tests* ein.

    Offene APIs

    Implementieren, verwalten und überwachen Sie Online-Modelle und -Anwendungen*, und erleichtern Sie die Integration durch CI/CD-Pipelines und andere MLOPs-Tools dank der Einhaltung offener Standards.

    Betriebliche Überwachung

    Überwachen Sie kontinuierlich GenAI-Modellmetriken wie Sentiment, Benutzerfeedback und Drift, die wesentlich sind, um Qualität und Leistung von Modellen aufrechtzuerhalten.

    * Funktion demnächst verfügbar. Kontaktieren Sie uns gerne, wenn Sie weitere Informationen wünschen.

    Bereitstellungsoptionen für AI Inference Service

    Führen Sie Inferenz-Workloads lokal oder in der Cloud aus, ohne Kompromisse bei Leistung, Sicherheit oder Kontrolle einzugehen.  

    Cloudera in der Cloud

    • Multi-Cloud-Flexibilität: Bereitstellung in öffentlichen Clouds ohne Bindung an einen bestimmten Ökosystem-Anbieter.
    • Kürzere Amortisationszeit: Beginnen Sie mit dem Inferenzieren ohne Infrastruktureinrichtung – ideal für schnelle Experimente.
    • Elastische Skalierbarkeit: Bewältigen Sie unvorhersehbaren Datenverkehr mit automatischer Skalierung auf Null und GPU-optimierten Microservices.

    Cloudera on Premises

    • Datensouveränität: Behalten Sie die volle Kontrolle. Sorgen Sie dafür, dass Ihre Modelle, Prompts und Assets vollständig hinter Ihrer Firewall geschützt sind.
    • Air-Gap-fähig: Konzipiert für regulierte Umgebungen wie von Behörden, Finanzdienstleistern und im Gesundheitswesen.
    • Vorhersehbare und niedrigere Gesamtbetriebskosten: Vermeiden Sie Überraschungen durch feste Preise und niedrigere Gesamtbetriebskosten im Vergleich zu tokenbasierten Cloud-APIs.
    DEMO

    Überzeugen Sie sich selbst davon, wie einfach die Modellbereitstellung sein kann

    Erfahren Sie, wie einfach Sie mit den leistungsstarken Tools von Cloudera große Sprachmodelle bereitstellen können, um umfangreiche KI-Anwendungen effektiv zu verwalten.

    Integration der Modellregistrierung: 
    Speichern, versionieren und verwalten Sie Modelle nahtlos über das zentrale Repository Cloudera AI Registry, und greifen Sie auf diese zu.

    Einfache Konfiguration und Bereitstellung: Stellen Sie Modelle in Cloud-Umgebungen bereit, richten Sie Endpunkte ein, und passen Sie für höhere Effizienz die automatische Skalierung an.

    Überwachung der Leistung:
    Beheben Sie Fehler, und optimieren Sie die Leistung basierend auf wichtigen Metriken wie Latenz, Durchsatz, Ressourcenauslastung und Modellzustand.

    headshot of Sanjeev Mohan
    Mit Cloudera AI Inference, das auf der KI-Expertise von NVIDIA beruht, können Sie das volle Potenzial von Daten in großem Maßstab ausschöpfen und sie mit Sicherheitsfunktionen auf Unternehmensniveau schützen. So sind Ihre Daten zuverlässig geschützt, und Sie können Workloads vor Ort oder in der Cloud ausführen, während Sie KI-Modelle effizient und mit der nötigen Flexibilität und Governance bereitstellen.

    – Sanjeev Mohan, leitender Analyst, SanjMo

    Erfahren Sie mehr

    Gehen Sie den nächsten Schritt

    Erkunden Sie die leistungsstarken Funktionen, und tauchen Sie mithilfe der Ressourcen und Anleitungen in die Details ein, damit Sie schnell loslegen können. 

    AI Inference Service – Produkttour

    Symbol für Produkttour

    Gewinnen Sie einen Eindruck von Cloudera AI Inference Service in der Praxis.

    Jetzt starten

    AI Inference Service – Dokumentation

    Dokumentationsbibliothek

    Hier finden Sie alles von Funktionsbeschreibungen bis hin zu hilfreichen Implementierungsleitfäden.

    Dokumentation erkunden

    Weitere Produkte erkunden

    Cloudera AI


    Beschleunigen Sie die datenbasierte Entscheidungsfindung von der Recherche bis zur Produktion mit einer sicheren, skalierbaren und offenen Plattform für Unternehmens-KI.

    AI Studios


    Erschließen Sie Workflows für private generative KI und agentische Workflows für jedes Qualifikationsniveau, mit der Geschwindigkeit von Low-Code- und der Kontrolle von Full-Code-Entwicklungen. 

    AI Assistants


    Machen Sie sich die Leistungsfähigkeit von KI sicher und in großem Umfang in Ihrem Unternehmen zunutze, und sorgen Sie dafür, dass alle Erkenntnisse nachvollziehbar, erklärbar und vertrauenswürdig sind.

    AMPs


    Entdecken Sie das durchgängige Framework für umgehendes Erstellen, Bereitstellen und Überwachen von direkt einsatzbereiten ML-Anwendungen.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.