Florian Müller-Schunk

Datenschutz bei Compagon

Der Datenschutz erlebt stürmische Zeiten

Um Datensicherheit zu garantieren – sowohl die Geheimhaltung als auch den Schutz personenbezogener Daten, bleibt einem derzeit nichts anderes übrig, als seine Infrastruktur selbst zu betrieben.
Daher machen wir das genau so. Schon immer.

Aber der Reihe nach

Zu Beginn der Digitalisierung gab es landesspezifische Datenschutzgesetze. Dann beschließt die Europäische Union die DSG-VO zur Vereinheitlichung der Regeln. Damit die günstigen Cloud Dienste insbesondere aus den USA genutzt werden können, schließt die Europäische Kommission internationale Abkommen wie das Privacy Shield. Die mit den USA getroffenen Regelungen werden im Anschluss vom EuGH mehrfach gekippt. Das letzte Mal im Juli 2020.

Verarbeitung personenbezogener Daten in den USA meist verboten

Die letzte Entscheidung des EuGH hat es dabei in Sich.

In den USA dürfen personenbezogene Daten von Europäern nicht verarbeitet werden, so Europäern kein Rechtsweg offen steht, sich gegen das Abhören durch Geheimdienste zu wehren. Damit verstoßen Dienste wie WebEx oder Zoom sofort gegen den Euopäischen Datenschutz.

Damit dürfen viele US Clouddienste wie Zoom oder WebEx ab sofort in Europa nicht mehr genutzt werden.

Temporäre Notlösungen unzuverlässig

Einige US Dienste wie Microsoft haben zusätzlich beim Datenschutz Standardverträge (deren Inhalte die EU Kommission fest vorgibt) abgeschlossen. Auf dieser Grundlage können heute noch personenbezogene Daten verarbeitet werden. Diese Standardverträge waren nicht Bestandteil der Klage und wurden daher nicht geprüft. Da die Argumentation des EuGH aber dort genauso greift, ist es nur eine Frage der Zeit bis auch diese Standardverträge geprüft und vermutlich für nichtig erklärt werden.
Im Anschluss mögen neue Abkommen mit den USA geschlossen werden. Aber so lange die USA die Gerichtsbarkeit von US Geheimdiensten nicht ändert, werden die neuen Abkommen und Vertragsklauseln mit den USA immer wieder fallen.

Bis in Europa neue Betriebsmodelle mit lokalen Betreibern gefunden werden, ist man beim Einsatz von US Clouddiensten wie Office 365, Surveymonkey und Google latent in der Gefahr, dass diese vom einen auf den anderen Tag verboten werden – oder dass man ggf. rückwirkend sogar haftet, weil man seine Sorgfaltspflichten bei der Auswahl der Dienstleister vernachlässigt hat.

Die sichere Lösung

Um auf Nummer sicher zu gehen bleibt also nur, auf eine weitgehend eigene Infrastruktur in Deutschland und handverlesene deutsche Dienstleister zu setzen.
Nur so ist man immun gegen plötzliche Verbote und Haftung.

Und genau deshalb leisten wir uns den Aufwand, und betrieben unsere Infrastruktur selbst. Damit schützen wir unsere Kunden und uns vor unangenehmen Überraschungen.

Florian Müller-SchunkDatenschutz bei Compagon
read more

Das Dilemma der Datenqualität

Zugegeben – Datenqualität ist irgendwie ähnlich spannend wie der Bau einer Bodenplatte bei einem Haus. Allerdings ist auch bei der Bodenplatte ein Nachbessern nur schwer möglich – wenn erstmal ein Haus drauf steht. Ähnlich ist es bei der Datenqualität von IT Systemen. Allerdings kommt bei letzterem  noch erschwerend hinzu, dass die IT-Systeme fortlaufende umgebaut werden.  Datenqualität ist daher in fast allen gewachsenen IT-Systemen ein großes Problem.

XX alles nachfolgende grundlegend überarbeiten XX

Viele Systeme werden über die zeit massiv umgebaut und erweitert. Dabei werden alte Datenbestände auch um zusätzliche Attribute erweitert. Eine Konsistenzprüfung kann aufgrund der unvollständigen alten Daten oftmals nicht eingeführt werden, da sonst veraltete Datenbestände vollständig nachgepflegt werden müssen.

Da die IT Verantwortlichen die schlechte Datenqualität als Fehler der Fachseite sehen und parallel in Umsetzungszeit und -kosten gedrückt werden, wird hier meist keine Arbeit investiert und die Daten – insbesondere bei größeren Systemen – sind einfach nicht zuverlässig gefüllt.

Die Lösung wird in der Praxis dann meist auf die nachgelagerten Systeme verschoben, die die unvollständigen Daten weiterverarbeiten müssen. Aber auch das kann teuer sein. Werden unzuverlässige Daten in mehreren Systemen weiterverarbeitet, muss in jedes der nachgelagerten Systeme eine Routine zum Fehlerhandling implementiert werden. Und bei weiteren Änderungen in den Quellsystemen sind oftmals weitere Änderungen in allen nachgelagerten Systemen erforderlich – statt die Ursache an der Wurzel zu beseitigen.

Im Ergebnis werden durch das pragmatischen Vorgehen und das Verantwortungsvakuum Wegs die Nachteile aus beiden Welten kombiniert: Die Stammdaten aus dem liefernden System sind falsch und die Schnittstelen der Syeteme sind fehleranfällig.

Dabei wird es oft bereits als Fortschritt gewertet, wenn man die unbrauchbaren Datensätze verwirft, worunter meist der wirtschaftliche Zweck leidet. Im einfachen Fall fehlen einige Datensätze bei Marketingmaßnahmen. Im schlimmsten Fall ist durch lückenhafte Reports kein klarer Blick mehr auf den aktuellen Stand mehr möglich. Auf dauert schafft man sich mit dem Quellsystem ein ‚untotes Monster‘, da sich keiner an einen Systemwechsel wagt, weil eine Datenübernahme in ein neues System mit unvorstellbaren Kosten verbunden ist. Konsolidierungsprojekte nach Fusionen scheitern.

Der Königsweg wäre, nur die relevanten Informationen nach und nach zu korrigieren. Die Korrektur soll dabei nach und nach erfolgen und nicht ‚en block‘. Auf diese Weise vermeidet man Belastungsspitzen in den Teams aber auch die unnötige Arbeit veralteter Daten zu korrigieren, die gar nicht mehr benötigt werden. Gleichzeitig sollen die Projekte die internen IT Abteilungen nach Möglichkeit nicht weiter belasten.

In der Praxis sind solche Produkte durchaus umsetzbar. Der Zugriff erfolgt dabei nach Möglichkeit über bestehende Schnittstellen, die z.B. Daten in Folgesysteme ausleiten. Im Anschluss werden diese Daten validiert. Die Evaluierungslogik kann dabei meist auf Basis der technischen Dokumentation unter Hinzuziehung der Fachabteilung bei sehr geringer Belastung der IT umgesetzt werden.

Fehlerhafte Datensätze werden dann je nach Fehlerart und Zuständigkeit an die richtige Fachabteilung zur Korrektur weitergeleitet. Nach einer bestimmten Zeit können die Daten erneut abgerufen und validiert werden. Nach der erfolgreichen Korrektur können die Daten in das Folgesystem wieder eingespeist werden.

Florian Müller-SchunkDas Dilemma der Datenqualität
read more

Compagon mit zusätzlichem Standort in Leutkirch

Immer nah an Entwicklungen und dabei auf dem aktuellen Stand der Technik zu sein ist ein wesentliches Element unserer Arbeit. Durch unseren neuen Standort in Leutkirch im Digitalen Zukunftszentrum Allgäu Oberschwaben erleben wir technologische Entwicklung direkt vor Ort. Unser neuer Partner Robert Müller betreut den Leutkircher Standort und stellt so die Vernetzung zum Team des Zukunftszentrums und deren Kooperationspartner sicher. So sind wir noch leistungsstärker für unsere Kunden.
Haben Sie Lust uns mal in Leutkirch zu besuchen und selbst künftige Schlüsseltechnologien wie z. B. Augmented Reality (AR) und Virtual Reality (VR) auszuprobieren? Gerne laden wir Sie hierzu ein.

Andreas SchölerCompagon mit zusätzlichem Standort in Leutkirch
read more