Die Anforderungen der Richtlinie 2004/39/EG über Märkte für Finanzinstrumente (MiFID II) hinsichtlich Transparenz, Berichtspflichten und Zugriff auf Liquiditätsquellen setzt europäische Finanzinstitute enorm unter Druck und bindet erhebliche Ressourcen. Volumen und Verschiedenheit der Daten, die verarbeitet und analysiert werden müssen, die Komplexität analytischer Prozesse und die Dringlichkeit der Berichtspflichten erfordern eine grundlegende technologische Änderung.
Im Juli 2016 stand in McKinsey Quarterly, dass zum Bewältigen dieser Herausforderungen „Banken hochqualifizierte IT-Experten dafür einsetzen, Löcher zu stopfen, Systeme instandzuhalten und regulatorische Anforderungen zu erfüllen.“
Aber einfach nur Löcher zu stopfen genügt nicht mehr. Tatsächlich ist es für Finanzunternehmen überlebenswichtig, ein solides Application Framework aufzubauen. Denn nur damit lassen sich die Anforderungen der MiFID II ab Januar 2018 erfüllen. Doch ein solches Framework muss heutige und künftige Datenquellen und Herausforderungen bereits berücksichtigen.
Viele dieser Herausforderungen drehen sich um spezielle MiFID-Anforderungen zur Berichtspflicht und Datenbereitstellung. Insbesondere wären das:
Der folgende Leitfaden soll Ihnen helfen, Ihre derzeitigen Möglichkeiten zur Bewältigung dieser Herausforderungen zu beurteilen.
Data Management: Keine Daten werden vergessen. Kann Ihre Handels-/Transaktionsplattform in Echtzeit Daten aus mehreren Quellen für Berichte nutzen? Isolierte Steuerungsfunktionen und inflexible Alttechnologien versagen in der Regel bei mehreren Datenquellen. Und Transaktionsberichte umfassen heutzutage wesentlich mehr Felder. Herkömmliche relationale Datenbanken haben ein Problem bei der Datenverarbeitung, wenn einige Informationen nicht in die erforderlichen Felder passen. Die Daten werden abgelehnt, was zu Ungenauigkeiten bei berichtsfähigen Daten führt. Die Möglichkeit, Daten in ihrer ursprünglichen Form in ein System einfließen zu lassen und abzustimmen, bietet erhebliche Vorteile und beschleunigt den Weg zur Compliance.
Kommunikation der Überwachung und Rekonstruierung von Daten: Können Sie die Herkunft von Informationen mit Ihrem Berichtssystem zurückverfolgen? Unternehmen müssen nachweisen, dass sie über eine effektive Übersicht und Kontrolle der Richtlinien und Verfahren verfügen, die die gesamte Kommunikation betreffen. Darüber hinaus muss Aufsichtsbehörden die Kommunikation für bestimmte Handelsvorgänge bereitgestellt werden können. Auch muss die Historie von zyklischen Handelsereignissen rekonstruierbar sein. Die Anforderungen an Ihre Kenntnis, welche Informationen Ihnen vorliegen und wann Sie in deren Besitz gekommen sind, haben sich geändert. Eine bitemporale Ansicht der Datenherkunft stellt heute eine wichtige Komponente Ihrer regulatorischen Berichtsinfrastruktur dar.
Datenspeicherung: Können Sie ggf. bei Prüfungen und Untersuchungen Zugriff auf die gesamten historischen Daten über Transaktionen, Kundendatensätze, Berichte und Rechenergebnisse geben? Unternehmen müssen Datensätze fünf Jahre für Kunden sowie bis zu sieben Jahre für Aufsichtsbehörden aufbewahren. Nie zuvor war eine sichere Datenspeicherung so dringend notwendig wie heute, insbesondere angesichts der unterschiedlichen Aufbewahrungszeiträume je nach Gerichtsbarkeit. Einige Gerichtsbarkeiten können Vertraulichkeitsvorschriften durchsetzen und den Austausch von Informationen zwischen Parteien einschränken. In solchen Fällen müssen Kennungen verwendet werden.
Überprüfung der Datenqualität und Datenlogik: Können Sie die lückenlose Herkunft und Governance für Daten nachweisen – gemeinsam mit der Berichtshierarchie – mittels bewährter Prozesse, die Quellen, Beziehungen und die zeitliche Affinität bestätigen? Banken müssen in der Lage sein, die richtigen Informationen für die Aufsichtsbehörde zu generieren. Das erfordert eine wiederverwendbare Compliance-Bibliothek und -Logik. Da Informationen intern wie extern auf vielfältige Weise genutzt werden, findet sich in verschiedenen Berichten häufig eine duplizierte Datenlogik, die zur Definition von Berichtsfeldern dient. Statt Heerscharen von Business-Analysten mit der erneuten Verarbeitung der Informationen jeder Datenbereitstellung zu beauftragen, besteht der bessere Ansatz darin, Methoden und Programmcode zu speichern und weiterzuverwenden sowie beide zu den Datensätzen und Ergebnissen in Beziehung zu setzen, die für Timestamps verwendet werden. Die Methoden und der Code können im Lauf der Zeit unabhängig von Daten-Updates aktualisiert werden.
Eine Compliance-Lösung als Framework für Business-Analysten: Unterstützt Ihre Lösung das IT-Team oder Business-Analysten? Es ist wichtig, Prozesse zu haben, die auch technisch nicht versierte Analysten verwenden können. Das bringt enorme Kosteneinsparungen und schafft zugleich operative Effizienz, ohne dass das Rechenzentrum für Regulierungsdaten bei Gesetzesänderungen umstrukturiert werden muss. Die richtige Technologie bietet zahlreiche Vorteile, wie z. B.:
Die richtige Plattform muss leicht in jede Front-Office-Anwendung für Business Intelligence Anwendungen zu integrieren sein.
Daten aus einer einzigen Quelle: Wie wiederverwendbar und erweiterbar ist die in Ihrem Berichtssystem integrierte Logik? Innerhalb einer Distributed-Architektur können Berechnungen in mehreren Datenbanken und Anwendungen doppelt erfolgen. Genauigkeit lässt sich erreichen, wenn sich alle Daten in einer einzigen operativen Datenbank befinden. Nehmen wir z. B. die Risikokalkulation: Kundenreferenzdaten, die an einer einzigen Stelle gespeichert sind, können mit den Ergebnissen mehrerer Geschäftsprozesse angereichert werden. Für die Risiko-Analytik können verschiedene Benutzer den gleichen Datensatz über ein Handelsportfolio mit unterschiedlichen Modellen verwenden. Wenn Daten über eine gemeinsame Datenplattform bereitgestellt werden, die den Referenzdatensatz für jede Methode und jeden Zeitpunkt markiert, kann man von einer sorgfältigen Governance sprechen. Methodeninformationen und Ergebnisse können ebenfalls an die gleiche Datenbank mit Vermerken und Zuordnungen zurückgehen. Dadurch erhalten Sie eine Zeithistorie für analytische Ergebnisse, Berichte und Herkunft eingeflossener Daten. Ob Überprüfung, Audits oder Zertifizierung – es wird immer nur eine einzige Einheit als Arbeitssubjekt verwendet.
Abfragen von Daten und Exportieren der Informationen:
Können Sie aggregierte Daten durchsuchen und abfragen, um Fragen zu beantworten sowie neuen regulatorischen Anfragen gerecht zu werden? Bei einem herkömmlichen Data Warehouse sind Abfragen schwierig. Hier kann wohl nur eine a Multi Model Technologie sicherstellen, dass Daten ohne Verlust der reichen Informationen in der Originalquelle untersucht werden können. Denn damit lassen sich mehrere Datenbanken mit unterschiedlichen Speicher- und operativen Anforderungen durchsuchen, während die Daten an einer zentralen Stelle bleiben. Das bietet einen großen Vorteil gegenüber herkömmlichen Ansätzen, bei denen wir Daten aus verschiedenen Formaten konvertieren und die Quellmodelle durch „Flatten“ auf eine Ebene reduzieren, damit sie beibehalten werden können. Dadurch entstehen riesige flache, tabellarische Strukturen, die für Tabellenkalkulationen und Filter geeignet sein mögen. Aber wir können dann keine neuen Fragen stellen oder herausfinden, was bei der Reduzierung auf eine Ebene verworfen wurde. Ein Multi Model Ansatz bietet dagegen die Möglichkeit, Informationen zu untersuchen, ohne dafür diese reduzierten Modelle zuordnen und übertragen zu müssen.
E-Discovery, Archivierung und Aufzeichnung der Aufbewahrung aller Arten von Daten, strukturierte wie unstrukturierte: Wie kann ich wirklich feststellen, was ich wann wusste? Und wie kann ich das beweisen? Retail-Banken kennen dieses Discovery-Problem gut. Angesichts der Fülle von Nachrichten und Datenformaten stellt das Identifizieren von Informationen – nicht nur übergreifend über Unternehmens-Silos, sondern auch über Silos, die Informationen enthalten wie z. B. E-Mail, Nachrichten, Texte, Bürodokumente usw. – eine ernstzunehmende Herausforderung für Investmentbanken dar. Wie kann ich wirklich feststellen, was ich wann wusste? Und wie kann ich das beweisen? Traditionelle Datenbanken speichern unstrukturierte Daten als BLOBs. Als Informationseinheit bieten diese nicht genug Details und sind auch nicht für komplexe Suchabfragen und Discovery-Fragen auflösbar. Aber selbst wenn das Suchproblem gelöst ist, kann das Verwalten dieser Informationen als Teil des Information Lifecycle Managements (ILM) wichtig sein, um eskalierende Betriebskosten zu vermeiden. Die Anforderungen an die Aufbewahrung variieren. Handelstransaktionen müssen u. U. – je nach Klasse und Standortbezug eines Assets – bis zu fünf Jahre online verfügbar sein. Audit-Trails, Berichte, Abwicklungs- und Clearance-Anweisungen, spezielle Untersuchungen, Korrekturmaßnahmen, Inhalte von Verträgen und Kontrahentendaten von Transaktionen müssen ebenfalls aufbewahrt und nach dem Gesetz sieben Jahre verfügbar sein.
Anforderungen an Berichte: Bietet Ihre Plattform die nötige Flexibilität, um an künftige regulatorische Anforderungen angepasst zu werden? Wir empfehlen einen Design-Ansatz für Berichtslösungen, der Agilität und Flexibilität sicherstellt. Die Lösung sollte eine regulatorische Berichtsplattform bieten, die Best Practices und operative Effektivität beinhaltet und deren Umfang und Ausmaß mit dem Unternehmen mitwächst. Das Ziel des Designs sollte es nicht sein, einmalige Berichtsanforderungen zu lösen, sondern die Möglichkeit zu schaffen, auf neu hinzukommende Anforderungen relativ entspannt und kostengünstig reagieren zu können.
Like what you just read, here are a few more articles for you to check out or you can visit our blog overview page to see more.
A data platform lets you collect, process, analyze, and share data across systems of record, systems of engagement, and systems of insight.
We’re all drowning in data. Keeping up with our data – and our understanding of it – requires using tools in new ways to unify data, metadata, and meaning.
A knowledge graph – a metadata structure sitting on a machine somewhere – has very interesting potential, but can’t do very much by itself. How do we put it to work?
Don’t waste time stitching together components. MarkLogic combines the power of a multi-model database, search, and semantic AI technology in a single platform with mastering, metadata management, government-grade security and more.
Request a Demo