Big+Data+-+Datenschutz+und+Datensicherheit

Die Einführung von Big Data Plattformen stellt Unternehmen im Kontext von Datenschutz und Datensicherheit vor technische Herausforderungen.

Sobald personenbezogene Daten gespeichert oder verarbeitet werden, sind innerhalb der EU die Projektanforderungen mindestens gegen die EU-Datenschutzgrundverordnung (DSVGO) mit verbindlicher Gültigkeit ab Mai 2018 zu prüfen. Weiterhin finden anforderungsbedingt auch nicht-EU Regularien Anwendung (verteile Standorte und/oder Systeme in nicht EU-Ländern).

Durch die Novellierung der EU-Datenschutzgrundverordnung ergeben sich Handlungsbedarfe besonders im Umfeld von Big Data Architekturen. Die Datenschutzgrundverordnung basiert nach Art. 5 DSGVO auf folgenden Grundsätzen:

  • Rechtmäßigkeit, Verarbeitung nach Treu und Glauben, Transparenz
  • Zweckbindung
  • Datenminimierung
  • Richtigkeit
  • Speicherbegrenzung
  • Integrität und Vertraulichkeit
  • Rechenschaftspflicht

Die Grundsätze Richtigkeit, Speicherbegrenzung, Rechenschaftspflicht und Integrität und Vertraulichkeit lassen sich dabei durch den richtigen Einsatz von Hadoop-Bordmitteln elegant und sicher lösen. In Betracht kommen dabei Atlas, Falcon, Knox und Ranger.

Apache Atlas stellt als Meta-Datenkatalog die Basis für weitere Werkzeuge zur Verfügung. Dabei können Daten per Tagging (z.B. Einordnung einer Spalte als „confidential data“) klassifiziert werden und verfolgt automatisch die Datenflüsse innerhalb der Hadoop Plattform (Data Lineage). Mit Apache Falcon können Anwendungsfälle wie die automatisierte Löschung nicht mehr benötigter Daten realisiert werden (Datenminimierung).
 
Apache Ranger erlaubt über eine sehr intuitiv zu bedienende Oberfläche verschiedene Möglichkeiten bereit, den Zugriff auf Daten einzuschränken. So können ganze Spalten in Tabellen oder auf feingranularer Ebene einzelne Datensätze pseudonymisiert werden oder die Lesbarkeit für bestimmte Personengruppen generell ausgeschlossen werden. Dabei sammelt Ranger Informationen im Rahmen eines Audit-Trails über die Zugriffe auf die Daten und Solr Dashboards visualisieren diese. Apache Knox stellt als Gateway-Komponente den Zugriff auf das gesamte Hadoop Ökosystem zur Verfügung und kann dabei auf Rollen des Active Directories zugreifen. Gewünschte Einschränkungen können dabei direkt in Knox als zentraler Anlaufstelle konfiguriert werden.



Als Hortonworks Partner unterstützen wir Sie bei der Absicherung Ihrer Hadoop Umgebung. Wir begleiten ihr Vorhaben beginnend bei der Konzeption und Durchführung einer abgesicherten Installation und Übergabe in den Regelbetrieb bis hin zur Umsetzung datenschutzrechtlicher Anforderungen.

Sie haben Fragen? Nehmen Sie Kontakt zu uns auf, wir rufen gerne zurück:

Frau * Pflichtfeld
Vorname *
Nachname *
E-Mail *
Telefon *
Ihre Nachricht
Kontakt Deutschland

Ventum Consulting GmbH&Co.KG

Infanteriestr. 11a
80797 München

+49 (89) 122 219 64 - 2
+49 (89) 122 219 64 - 25
info@ventum.de

Kontakt Österreich

Ventum Consulting GmbH

Ernst Melchior Gasse 24
1020 Wien

+43 (1) 535 34 22 - 0
+43 (1) 535 34 22 - 15
office@ventum.com

© ventum consulting