MiFID II, UCITS IV, Dodd Frank en Basel III Het besturen van een Rethink van Massive Data Management

Als Basel III, MiFID II, UCITS IV en de Dodd Frank Act zijn afgerond en /of in werking treden, hebben steeds hogere vereiste gegevens zijn stuwkracht op financiële instellingen die hen verplichten om nauwgezet volgen van de oorsprong van de gegevens, de transformatie dan tijd en de personen of processen die verantwoordelijk zijn voor veranderen. Sommige rapporten hebben geschat dat ten minste 70 nieuwe regelgeving met betrekking tot de kapitaalmarkten in werking in Europa tussen 2012 en 2013 zal komen met meer dan 300 in de Verenigde Staten in dezelfde periode.

De bevoegdheid om op te halen en de gegevens uit verschillende bronnen in real-time te consolideren om zo data warehouses, risico motoren te voeden en daarom berekenen huidige blootstelling aan risico's is dan ook van cruciaal belang nu meer dan ooit. Dit is vooral zo wanneer men het huidige station in de richting van het creëren van een centrale OTC-markt om zo een andere catastrofale financiële markten crisis te voorkomen en was getuige in de periode 2007-2009. Nieuwe toezichtregels dwingende bedrijven te halen en te rapporteren over enorme hoeveelheden trading gegevens, zonder afbreuk te doen aan de kwaliteit van die gegevens.

De enterprise data wordt in de prijsstelling en risicoanalyse datawarehouse modellen. De enorme omvang van de OTC-transacties is slechts een van de vele vormen van massale data dat het kapitaal en de financiële markten te karakteriseren. Een recente peiling van MoneyMate van buy-side markt deelnemers toonde aan dat 80 procent van de respondenten waren niet voorbereid op de aanstaande wijzigingen in de regelgeving. 75 procent van de ondervraagde bedrijven beschouwd als de Dodd Frank Act een serieuze reden tot bezorgdheid.

Om eerlijk te zijn aan financiële dienstverleners die nog niet voorbereid op handen zijnde wijzigingen in de regelgeving, nieuwe regelgeving zoals Basel III en de MiFID II gaan door middel van een aantal wijzigingen en aanpassingen voor de definitieve kader duidelijk aan alle belanghebbenden wordt. Maar zelfs na de nieuwe regels duidelijk geworden, ongelijksoortige systemen tussen de klant gerichte, middle en back-office functies maken het moeilijk voor de financiële instellingen om nauwkeurig te berekenen blootstelling aan risico's, automatiseren onderpand opdracht en in plaats van de nodige systemen om real-time positie waardering te bereiken.

Inderdaad, voor de wereldwijde financiële spelers op de markt, een van de grootste uitdagingen voor hun risicobeheer en compliance teams is de evaluatie van de blootstelling aan de overkant van de bank &'; s hele business. Een recente peiling van Simcorp toonde aan dat 30 procent van de buy side marktpartijen toegegeven dat ze dagen of zelfs weken nodig zou hebben om hun hele organisatie &' berekenen; s blootstelling aan risico's.

Om dergelijke uitgesponnen berekening gezet in context, zou dit betekenen dat in situaties zoals de implosie van Lehman Brothers en Bear Stearns, zou 30 procent van de buy side spelers traag reageren als gevolg van een gebrek aan tijdige risico informatie.

Na de controle lacunes die zo dramatisch werden blootgelegd door de 2007-2009 financiële crisis, hebben toezichthouders direct of onbedoeld meer aandacht gevestigd op marktgegevens als ze gericht zijn op de huidige otc-derivatenmarkt te veranderen in een beurzen -traded model. Een manier waarop dit gebeurt is de drive om een ​​systeem van Leis (rechtspersoon Identifiers), die zal worden gebruikt om transacties met de respectieve tegenpartijen taggen hebben.

Regelgevers mag niet achterblijven bij de vaststelling van massale data management-technologie worden overgelaten

Interessant is echter dat, terwijl nieuwe regels zijn blijven innovatie te stimuleren in de vangst en het beheer van enorme hoeveelheden gegevens, financiële sector toezichthouders zelf zijn vaak traag bij de uitvoering van dergelijke technieken. Toch kan het efficiënter regulatoren vangen en enorme analyseren, hoe sneller ze kunnen identificeren en onschadelijk systeemrisico wordt.

In feite zijn sommige analisten van de 2007-2009 financiële crisis hebben de schuld gelegd niet op zwakke wetgeving, maar op zwakke toezicht. Zoals analisten hebben betoogd dat alle gegevens die nodig was voor toezichthouders om in de kiem smoren het ballonvaren de risico's van derivaten en subprime hypotheken beschikbaar was, maar werd nooit gehandeld. Hoewel niet iedereen zal noodzakelijkerwijs eens met deze lijn van denken, de controverse en de uiteindelijke ontbinding van het Office of Thrift Supervision in de VS doet lenen sommige geloof aan deze stelling.

Toch, sommige financiële toezichthouders markt nemen maatregelen om marktgegevens efficiënt vast te leggen. De SEC (Securities Exchange Commission) in de VS bijvoorbeeld, heeft het idee van een geconsolideerde Audit Trail dreef. De CAT zou gebaseerd zijn op het verzamelen van informatie van FINRA en elke uitwisseling van gegevens in een centrale repository. De informatie zou op elke bestelling, elke offerte en elke rapporteren gebeurtenis die elke bestelling en offerte. In het geval van een plotselinge crash, zou de SEC de real-time gegevens die nodig zijn om snel te zien wat er gebeurd is, in tegenstelling tot een aantal weken wachten om te ontcijferen wat er precies is gebeurd hebben.

De weg vooruit

De nieuwe regelgeving een beroep op zowel de toezichthouders en banken om een ​​verfijnde aanpak in de richting van de vangst en de aggregatie van gegevens uit meerdere bronnen te nemen, melden en de gegevens &' houden; s geschiedenis mogelijk te maken voor de toekomst audit. Om dat te doen, dienen de instellingen een enterprise-brede inventarisatie van gegevens te nemen, identificeren van de kenmerken van deze gegevens en te isoleren de gebieden die relevant zijn voor de regelgeving rapportage zal zijn.

Een van de belangrijkste uitdagingen is de noodzaak om tijd stempels vooral harmoniseren wanneer de gegevens afkomstig zijn van verschillende systemen zijn. Risicomanagers moeten werken met de technologie personeel om alle gegevens die zijn weg maakt naar de risico datawarehouse te verzekeren is het tijd-consistent. Vergeet niet dat het best case scenario is voor de risico's data capture en de positie evaluatie plaatsvinden in de buurt van real-time.

Zorgen tijd consistentie kan moeilijk zijn wanneer men factoren de mogelijkheid van gegevens in de rij in verschillende systemen die uiteindelijk kan invloed hebben op hoe tijdige risicomanagers een positie verklaring kan genereren. Nog steeds, een geavanceerd systeem zou deze dynamiek rekening nbsp nemen om te waarborgen dat de uiteindelijke risico rapporten zijn een nauwkeurige weergave van de huidige gegevens Restaurant &.;

risicomanagement

  1. Belangrijke kenmerken te verwachten van uw PC Backup Tools
  2. Het concept en de waarde van Risk Management Verzekeringen in Zaken Bedrijven
  3. Hoe nemen van risico's biedt enorme zakelijke voordelen
  4. Data Extraction voor Solvency II compliance
  5. Basel III -Lange termijn strategieën versus Stop Gap Data Warehouse en Data Management Solutions
  6. Daken at Risk voor Schade van het onweer
  7. De Europese Schuld Implosion: Hola Spanje
  8. Data Management implicaties van Solvency II op Asset Managers
  9. Verwachte Fondsbeheerder Re-Alignment Na UCITS IV Uitvoering
  10. Uitgebreide Achtergrond Controles - Aan de Bigger Picture
  11. Papieren documenten en gevoelige bedrijfsinformatie
  12. Ramp paraatheid en Recovery Versus Business Continuity
  13. Het belang van veiligheid en milieu in de mijnbouw
  14. ! Werkgelegenheid Verificatie - Waarom werkgevers moeten doen werkgelegenheid Verificatie van Overse…
  15. Het ongelooflijke verhaal van uw afval
  16. Enterprise Risk Management in het Bankbedrijf
  17. Minimalisering uit alle Produce Chain lopen het risico van Within Fantasierijke Ontwikkelen
  18. 7 tips om uw website te beschermen tegen hackers
  19. Vibration Monitoring een belangrijke techniek voor bedrijven
  20. Landbouw als een Small Business - Boerderij en Trekker Veiligheid - A Guide