NTT DATA Business Solutions
Jared Hirschner | Januar 30, 2024 | 4 min

Der leichteste Beginn: SAP und Google Cloud Cortex Framework

Bereiten Sie sich auf unseren Innovationsworkshop vor – SAP-Daten in einer hochmodernen Umgebung mit Templates extrahieren, auswerten und mittels AI anreichern.

SAP und Google Cloud Cortex Framework

Das Google Cloud Cortex Framework ermöglicht es, vordefinierte und vor allem künstlich intelligent angereicherte Data Marts und Reporting-Templates einzusetzen. Diese beziehen nicht nur SAP-Kernsysteme ein, sondern bieten gerade auch Schnittstellen für weitere Datenquellen wie Salesforce oder sogar TikTok. Abgerundet werden die gegebenen Möglichkeiten durch die BI-Plattform Google Looker, für die Plug and Play-Dashboards bereitstehen. Unter Best Practices können verschiedenste Informationen miteinander in Verbindung gesetzt und künstlich intelligent aufbereitet werden. Dabei eröffnet sich das Potenzial, die zur Datenmodellierung erforderliche Zeit drastisch zu reduzieren, während zudem die Partizipation am technologischen Fortschritt gegeben ist.

  1. Als Voraussetzung benötigen Sie einen funktionsfähigen Google Cloud Account – hierbei kann sich die Prüfung möglicher Startguthaben lohnen
  2. Öffnen Sie den folgenden Link (vgl. Google Cloud Platform 2024)
  3. Bestätigen Sie Ihre Auswahl
  4. Warten Sie wenige Momente
  5. Starten Sie das Tutorial
  6. Wählen Sie das Projekt aus, für welches das Google Cloud Cortex Framework implementiert werden soll
  7. Kopieren Sie den folgenden Befehl zusammen mit dem eingesetzten/ausgewählten Projektnamen (hier „cortex-tutorial-2024“) zur Ausführung in die Konsole:
    ./1_click.sh –project \
    „Projektname“
  8. Anschliessend gilt es in aller Regel nur wenige Sekunden zu warten
  9. Selektieren Sie alle gewünschten Beispieldaten (*)
  10. Wählen Sie eine Option aus den gegebenen Implementierungsmöglichkeiten (zum schnellen Einstieg empfiehlt sich häufig die erste Option)
  11. Die Bestätigung eines Google Cloud API Calls ist obligatorisch
  12. Sodann können das Quell- sowie Zielprojekt und die BigQuery-Lokalisierung ausgewählt werden.
  13. Nach der Sichtung gewählter Parameter ist es möglich, den eigentlichen Implementierungslauf wie folgt zu starten (Yes):

    Dieser bedarf keiner weiteren Interaktion. Log-Dokumente werden automatisch gespeichert und ihr Ort als URL-Link in der Konsole angezeigt.
  14. Herzlichen Glückwunsch – nun können Sie sich bereits in BigQuery (BQ) umsehen und mit den ersten Analysen hinsichtlich der Beispieldaten beginnen, wobei insbesondere der Unterschied zwischen den Roh- und Change Data Capture-Deltadaten für Sie interessant sein könnte.

Besuchen Sie gerne unseren kostenlosen Workshop am 15. Februar 2024, um technische Details und einen detaillierten Einblick in vordefinierte Dashboards zu erhalten.

Wir freuen uns auf Sie!

image

Cloud-Analytics-Workshop: Google Cortex Deep-Dive – SAP und weitere Datenquellen in einer Cloud vereint

Am 15. Februar 2024 findet die erste Veranstaltung unserer Cloud-Analytics-Workshop-Reihe zum Thema «Google Cortex» statt. Entdecken Sie die Vorteile für die nahtlose Anbindung von SAP-Daten  bis hin zum Frontend mit den leistungsstarken Templates des Cortex-Frameworks.

Jetzt anmelden

Sprechen Sie uns an

Sind Sie auf der Suche nach Antworten oder möchten Sie mehr Informationen über das Thema erhalten?

Nehmen Sie noch heute Kontakt mit uns auf und lassen Sie uns besprechen, wo Ihre Probleme liegen, was Sie erreichen wollen und wie wir Ihnen dabei helfen können.

Wir helfen Ihnen gerne weiter!

Das könnte Sie ebenfalls interessieren

Select a Country
SchweizDeutsch