Alle Metadaten im SPOT

Den Datenschatz einmal entdeckt, braucht es eine zentrale Stelle, die das Wissen über die Daten verwaltet und ALLEN in der Organisation zur Verfügung stellt. Semantik, Qualität sowie Datenverantwortlichkeiten, Datenschutzinformationen und zentrale Referenzdaten stehen dabei im Mittelpunkt. Damit schafft man den „Single Point of Truth“ für fachliche Metadaten.

Kostenlose Demo anfordern

Data Excellence Metadata Framework©

Die Komponenten in dataspot.

Der Funktionsumfang von dataspot. umfasst alle notwendigen Komponenten, um ein datenexzellentes Unternehmen ganzheitlich zu unterstützen. Abgeleitet aus dem fachlichen Managementansatz und unter Berücksichtigung relevanter Kundenanforderungen bietet die erste Release acht fachliche Bestandteile.

  • Daten verstehen: das Fachliche Datenmodell

    In diesem Modell werden fachliche und technische Datenbeschreibungen auf granularster Ebene abgebildet. Das Fachliche Datenmodell, das alle Geschäftsobjekte des Unternehmens umfasst, ist in der Sprache des jeweiligen Fachbereichs gehalten und für alle einfach lesbar. Ziel ist es, das Geschäft eines Unternehmens so nah wie möglich an der Realität – übergreifend über alle technischen Implementierungen – abzubilden.

  • Daten berechnen: die Kennzahlen & Dimensionen

    Kennzahlen werden angelegt, ihre Berechnungsmethodik beschrieben und die Zusammensetzung über alle Ebenen modelliert. Diesen Kennzahlenbäumen liegen die Geschäftsobjekte und Attribute aus dem Fachdatenmodell zugrunde – sowie weitere, bereits definierte Kennzahlen. Für jede Kennzahl werden auch jene Dimensionen definiert, nach denen ausgewertet werden kann.

  • Daten nutzen: der Datennutzungskatalog

    Im Datennutzungskatalog sind Auswertungen (Berichte, Kennzahlen) und auch Datenbereitstellungen (Files, Cubes) verzeichnet. Das erlaubt den Datenkonsumenten jederzeit nachzuschauen, ob die Auswertungen, die sie brauchen, schon existiert oder Teile wiederverwendet werden können. Ein Einkaufskatalog für Daten: was man brauchen kann, kommt in den Shopping-Cart.

  • Daten strukturieren: die Referenzdaten

    Referenzdaten beinhalten Wertelisten, die die Auswertungsmöglichkeiten bestimmen und zentral in einem Referenzdatenmanagement verwaltet und gepflegt werden. Code-Überleitungen verschiedener Referenzobjekte schaffen die Möglichkeit Referenzwerte aus verschiedenen Sichten und Systemen auf eine harmonisierte Sicht zu übersetzen, aber auch Hierarchien zu definieren.

  • Daten optimieren: das Datenqualitätsmanagement

    Fachliche Datenqualitätsindikatoren, die auf Basis der harmonisierten Datendefinitionen entwickelt wurden, sind in einem eigenen Datenqualitätsmodell abgebildet. Es wird sowohl die erwartete Qualität, als auch die gemessene Qualität – mit Thresholds und Farbskala – aufgegliedert nach Messzeitpunkten angezeigt. Der Verlauf der Datenqualität wird in einem Diagramm dargestellt.

  • Daten verantworten: die DX-Organisation

    Keine „herrenlosen“ Attribute mehr. Streng nach der Data Governance-Organisation sind die Fachbereichs- und Supportrollen für die Inhalte aller Metadatenmodelle zuordenbar und die Entscheidungsstrukturen abgebildet. Die Vergabe der Verantwortungen und Aufgaben erfolgt nach dem Postenkonzept, sodass Personalveränderungen einfach abzubilden sind.

  • Daten nachvollziehen: die Transformationen

    Durch Transformationen werden sowohl die fachliche als auch die technische Data Lineage – die Abstammungslinie der Daten – abgebildet. Impact-Analysen erfolgen auf Knopfdruck als Report oder Diagramm, anhand dessen man sieht, welche Datenelemente in andere einfließen oder in Datenqualität, Systemen, Verarbeitungen, Projekten usw. verwendet werden. Transformationen sind die Basis für metadatengetriebene Generierung von Source Code

  • Daten schützen: das Verarbeitungsverzeichnis

    Im Verarbeitungsmodell wird die Verwendung von Daten in Verarbeitungen angeführt, die datenschutzrelevante Beschreibungen, wie Rechtsgrundlage, Verwendung- zweck oder vorgesehene Löschfristen enthalten. Personenbezogene oder -identifizierende sowie sensible Daten sind auf Attributsebene gekennzeichnet und werden damit automatisch im Verarbeitungsverzeichnis dargestellt, das auf Knopfdruck als Report generiert wird.

  • Daten erzeugen: die Projektübersicht

    In Projekten werden Daten verwendet, aber auch definiert und erzeugt. Diese enden und niemand weiß mehr, wo die Daten entstanden sind oder verwendet wurden. In IT-Projekten fließen die aktuell gehaltenen Beschreibungen in Fachkonzepte ein. Neue Anforderungen werden direkt in data spot. erstellt und zur Implementierung weitergegeben.

  • Daten speichern: das Technische Datenmodell

    In diesem Modell werden die technischen Datenbeschreibungen definiert bzw. importiert, um das Spiegelbild der Datenbanken zu verwalten. Die Zuordnung zu Systemen komplettiert die technische Sicht, während das Mapping aus dem Fachlichen Datenmodell die semantische Bedeutung zeigt.

  • Daten bearbeiten: der Systemkatalog

    Sowohl aus der fachlichen als auch der technischen Perspektive wird verwaltet, in welchen Systemen die Daten gespeichert und bearbeitet werden. Besondere Bedeutung kommt hier der “Golden Source” zu. Metadaten zu Systemen und Anwendungen werden im Systemkatalog geführt und Anwendungsverantwortlichen in eigenen, definierbaren Rollen zugewiesen.

  • Daten typisieren: die Datentypen

    Im Katalog der Datentypen werden die grundsätzlich Verwendeten Daten im Metadatenmodell definiert. So kann eine standardisierte Befüllung sichergestellt und auch die technische Implementierung vorbereitet werden.

  • Daten verarbeiten: die Prozesse & Verarbeitungen

    Im Geschäftsfunktionenmodell wird die Brücke zum Prozessmanagement geschlagen. Mittels Schnittstelle zu Prozessmanagement-Tools werden die Metadaten zu den Geschäftsprozessen importiert und ihnen jene Geschäftsobjekte und Attribute zugewiesen, die in diesen Geschäftsfunktionen erzeugt, transformiert oder verwendet werden.

Jetzt anfragen

Standard für fachliche Metadaten

Metadaten über Datennutzung ermöglichen eine effiziente Verwendung und die Bemessung von Auswirkungen durch Änderungen. Kritische Erfolgsfaktoren stellen die fachbereichsorientierte Form der Wissensabbildung und die dauerhafte Regelung der Verantwortlichkeiten dar – diesen wird in dem ganzheitlichen Managementansatz für fachliche Metadaten Rechnung getragen.

dataspot. bietet die software-technische Basis für einen fachlichen Metadaten-Austauschstandard, wie er auch von der Europäischen Union angestrebt wird. Die Verwendung und Verbreitung von Standards (z.B. auch bei Referenzdaten wird – sofern vorhanden – ISO, etc. verwendet) ist ein Prinzip von dataspot.

Am wichtigsten erscheint allerdings die Bewusstseinsbildung, dass der Umgang mit Daten im Unternehmen verantwortungsvoll sein muss, Daten immer eine semantische Begleitinformation (Metadaten) brauchen und alle ein Recht darauf haben.

Die technologische Basis dieser zentralen Anwendung setzt auf Industriestandards und Open Source Frameworks. Die intuitive, webbasierte Benutzeroberfläche ermöglicht einen leichten Zugang ohne Schulungsbedarf, selbst auf mobilen Endgeräten. Das Wissen über die wertvollen Unternehmensdaten „lebt“ und kann erfolgreich für Projekte und Datenauswertungen eingesetzt werden.