Big Data macht Behörden effektiver und servicefreundlicher

Auf die Architektur kommt es an

| Autor / Redakteur: Hadi Stiel / Susanne Ehneß

Um die explodierenden Datenbestände unter Kontrolle zu bekommen, müssen sich auch Behörden mit Big Data beschäftigen
Um die explodierenden Datenbestände unter Kontrolle zu bekommen, müssen sich auch Behörden mit Big Data beschäftigen (Bild: peshkov - Fotolia.com)

Öffentliche Bereiche sind zunehmend darauf angewiesen, ihre explodierenden Datenbestände zu integrieren, um so den Gesamtbestand für Analysen und Auswertungen für einen effektiveren und effizienteren Verwaltungs- und Portalauftritt zu nutzen.

Nicht nur in der Wirtschaft wächst, vorangetrieben durch das digitale Business, die Bedeutung von Big Data. Bevor Behörden über Big-Data-Integration und Big-Data-Analysen ihre Interaktionen intern und untereinander sowie gegenüber den Bürgern auf Vordermann bringen können, müssen dafür die richtigen Weichen gestellt werden. Danach muss im Projektverlauf an geeigneten Stellschrauben gedreht werden. eGovernment Computing hat sich darüber mit Harald Weimer, Geschäftsführer bei Talend Deutschland, unterhalten.

Welche Behörden sehen Sie ­unter besonders hohem Big-­Data-Integrations- und -Analysedruck?

Weimer: Viele Bereiche innerhalb der Öffentlichen Verwaltung sind betroffen: Versorgung, Bildung, Finanzen und Steuerwesen, Städteplanung, Polizei- und Rettungseinsätze, Fuhrparkverwaltung, intelligente Verkehrssteuerung (Stichwort: Smart Mobility), kosteneffizientes Gebäudemanagement (Stichwort: Smart Energy) und Umwelt. Zudem sind die Behörden generell gefordert, via Portal ihre Interaktion mit und ihre Services gegenüber den Bürgern zu verbessern. Die Herausforderung besteht darin, bei wachsender Komplexität der Verwaltungssysteme Prozesse zu vereinfachen, zu straffen und zielgenauer auszurichten, dadurch effektiver und effizienter zu gestalten. Big-Data-Integration und -Analysen schaffen dafür geeignete Voraussetzungen, indem sie für all dies werthaltige Daten und Auswertungen bereitstellen.

Welche Weichen sollte die ­Behörde gegebenenfalls im ­Zusammenspiel mit anderen beteiligten Behörden für einen erfolgreichen Ablauf des Big-Data-Projekts stellen?

Weimer: Wesentliche Etappen für einen erfolgreichen Projektablauf sind, sich im Vorfeld klare Ziele für das Vorhaben zu setzen, sich die erforderlichen Kenntnisse und Fähigkeiten über die Anwendungsmöglichkeiten der neuen Technologien anzueignen, sich über die Integration bisher separat geführter Datenquellen Gedanken zu machen und den Ausbau einer geeigneten Architektur für Big Data ins Auge zu fassen. Außerdem müssen mögliche Risiko- und Governance-Probleme bedacht und natürlich die Finanzierung des Gesamtprojekts sichergestellt werden. Eine Readiness-Scorecard, die vorab entwickelt werden muss, hilft, die Erfolgsfaktoren für das anstehende Big-Data-Projekt im Einzelnen zu identifizieren.

Die Integration der bisher separat und dadurch nicht gesamtheitlich ausgeschöpften und ausgewerteten Datenquellen, Datenbanken wie Anwendungen, dürfte eine besondere Herausforderung für die Projektverantwortlichen darstellen, oder?

Weimer: Zweifellos. Sämtliche Datenquellen müssen identifiziert und die Daten darin gesichtet werden. Danach muss eruiert werden, wie die relevanten Datenquellen in eine Gesamtdatenbasis überführt werden können, wie die einzelnen Datenbestände strukturiert werden müssen und wie der Aufwand für die Integrationsleistungen und die damit verbundenen Schulungsleistungen so gering wie möglich gehalten werden können. Wichtig für eine angemessene Bewertung der Datenbestände ist auch, auf welche Verbesserungen der Big-Data-Analyseauftritt vor allem abzielen soll: effektivere und effizientere interne Verwaltungsprozesse im anvisierten Anwendungsbereich wie Versorgung, Finanzen und Steuerrecht, Städteplanung, Verkehrssteuerung, Gebäudemanagement, Umwelt und/oder Verbesserung der Interaktionen und Services via Bürger-Portal. Natürlich müssen die angestrebten Verbesserungen konkretisiert, also in Art und Umfang festgelegt werden, um später daran die Big-Data-Analysen ausrichten zu können. Und: Selbst wenn es auf den ersten Blick sinnvoll erscheinen sollte, einzelne Datenquellen zu integrieren, können Kostenbetrachtungen dieser ersten Einschätzung widersprechen, nämlich dann, wenn die angestrebten Vorteile sie nicht wettmachen.

Lesen Sie auf der nächsten Seite weiter.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43869793 / Standards & Technologie)