Der leichteste Beginn: SAP und Google Cloud Cortex Framework

Bereiten Sie sich auf unseren Innovationsworkshop vor – SAP-Daten in einer modernen Umgebung mit Templates extrahieren, auswerten und mittels AI anreichern.

Jared Hirschner | Juli 31, 2025 | 4 min
SAP und Google Cloud Cortex Framework

Das Google Cloud Cortex Framework ermöglicht den Einsatz vordefinierter, KI-angereicherter Data Marts und Reporting-Templates. Diese beziehen nicht nur SAP-Kernsysteme ein, sondern bieten auch Schnittstellen zu weiteren Datenquellen wie Salesforce, Oracle ERP, Google Analytics, YouTube, LiveRamp, Meta oder sogar TikTok.

Ergänzt werden diese Möglichkeiten durch die BI-Plattform Google Looker, für die Plug-and-Play-Dashboards zur Verfügung stehen. Auf Basis bewährter Best Practices lassen sich verschiedenste Informationen verknüpfen und intelligent aufbereiten. Dadurch ergibt sich das Potenzial, den Aufwand für die Datenmodellierung deutlich zu reduzieren – bei gleichzeitiger Teilhabe am technologischen Fortschritt. Erkunden Sie nun eine beispielhafte Umgebung in wenigen Schritten selbst:

  1. Als Voraussetzung benötigen Sie einen funktionsfähigen Google Cloud Account – hierbei kann sich die Prüfung möglicher Startguthaben lohnen.
  2. Öffnen Sie den folgenden Link (vgl. Google Cloud Platform 2025).
  3. Bestätigen Sie Ihre Auswahl.
  4. Die Bestätigung des Google Cloud API Calls ist obligatorisch um fortfahren zu können.
  5. Warten Sie wenige Momente.
  6. Start des Tutorials: Auswahl des Projekts
  7. Kopieren Sie den folgenden Befehl zusammen mit dem eingesetzten/ausgewählten Projektnamen (hier «cortex-tutorial-2024») zur Ausführung in die Konsole:
    ./1_click.sh –project \
    «Projektname»
  8. Anschliessend gilt es in aller Regel nur wenige Sekunden zu warten.
  9. Selektieren Sie alle gewünschten Beispieldaten (*).
  10. Wählen Sie aus den gegebenen Implementierungsmöglichkeiten eine Option aus (zum schnellen Einstieg empfiehlt sich häufig die erste Option).
  11. Sodann können das Quell- sowie Zielprojekt und die BigQuery-Lokalisierung ausgewählt werden.
  12. Nach der Sichtung aller gewählter Parameter ist es möglich, den eigentlichen Implementierungslauf wie folgt zu starten (Yes).

    Dieser bedarf keiner weiteren Interaktion. Log-Dokumente werden automatisch gespeichert und ihr Ort als URL-Link in der Konsole angezeigt.
  13. Herzlichen Glückwunsch – nun können Sie sich bereits in BigQuery (BQ) umsehen und mit den ersten Analysen hinsichtlich der Beispieldaten beginnen, wobei insbesondere der Unterschied zwischen den Roh- und Change Data Capture-Deltadaten für Sie interessant sein könnte.

Unser Workshop bietet Ihnen eine technische Vertiefung sowie insbesondere einen Ausblick darauf, wie sich Daten mithilfe künstlicher Intelligenz nutzen lassen. Die Details folgen in Kürze. Wir freuen uns auf Sie!

Jared Hirschner

Ich helfe Ihnen gerne weiter

Sind Sie auf der Suche nach Antworten oder möchten Sie mehr Informationen über das Thema erhalten? Nehmen Sie noch heute Kontakt mit uns auf und lassen Sie uns besprechen, wo Ihre Probleme liegen, was Sie erreichen wollen und wie wir Ihnen dabei helfen können.

Jared Hirschner

Expert Consultant / Data Scientist

Das könnte Sie ebenfalls interessieren