Kriterien auf der Ebene des Anwendungsfalls

Last modified by TobiasSteinherr on 2018/02/08 13:41

Inhaltsverzeichnis

Datenintegration


Hinsichtlich der technischen Standards und Schnittstellen müssen Städte und Kommunen ermitteln, wo sie die IT-Infrastruktur dauerhaft bzw. projektbezogen anpassen müssen, um neue Formen der Wissensorganisation, Entscheidungsfindung und Kommunikation in die bestehende Systemlandschaft zu integrieren. Abhängig vom Anwendungsfall ist zu prüfen, ob die Informationen in Echtzeit oder in festgelegten Zeitabständen integriert werden müssen und wie aufwendig die Integration ist. Weiterhin stellt sich die Frage, ob Standardwerkzeuge verwendet werden können und mit welchen Lizenzkosten oder -einschränkungen zu rechnen ist. Womöglich gibt es geeignete Open-Source-Lösungen, die aber nur scheinbar kostenlos sind. Ihre Nutzung ist oft mit einer höheren Einarbeitungsdauer und mit Folgeaufwand verbunden, weil beispielsweise eine einheitliche Dokumentation fehlt. Das wirkt sich auch auf die Höhe des zu erwartenden Wartungs- und Supportaufwands aus. Auch Google Analytics kostet nur scheinbar nichts. Wir bezahlen dafür mit unseren Daten. Besonders wichtig ist dabei die Prüfung, ob das System in bestimmten Anwendungsfällen unzuverlässig ist. Wenn ausgerechnet im Katastrophenfall die Internet-Verbindung ausfällt, darf eine Stadt sich nicht allein aufs Crowdmapping via Facebook verlassen.

Qualitätssicherung


Neue, digitale Datenquellen und digitale Formen der Wissensgewinnung sollten auch Kommunen nur nutzen, wenn sie korrekte Informationen generieren. Sie müssen also Regeln aufstellen, um diese Gültigkeit (im Sinne von Korrektheit) zu prüfen und sicherzustellen. Auch der nötige Prüfaufwand spielt eine Rolle. Dass die Informationen richtig sind, heißt aber noch nicht, dass sie relevant sind. Das Ausmaß irrelevanter Daten bzw. Informationen muss abgeschätzt werden, zum Beispiel bei der Analyse von Tweets oder Social-Media-Einträgen. Schätzungen zufolge sind bei Großkatastrophen nur etwa 8 % der Tweets relevant, d. h. trotz entsprechender Hashtags enthielten 92 % keine Informationen, die für Betroffene oder Helfer von Bedeutung waren. Umgekehrt spielt die Relevanz auch bei der Kommunikation von Wissen und Informationen eine Rolle. Beispielsweise können Apps mit Standortbestimmung dem Nutzer der App zielgerichtet raumbezogene Informationen übermitteln – wie etwa den Standort der nächstgelegenen öffentlichen Toilette. Oft wird diese Relevanz bisher nicht berücksichtigt. In Ratsinformationssystemen muss ein Bürger, der sich informieren will, erst selbst die für ihn relevanten Informationen suchen.

Ein nicht zu unterschätzendes Problem ist die Repräsentativität der zu generierenden Informationen. Es besteht möglicherweise die Gefahr von Verzerrungen, etwa durch eine ungleichmäßige Nutzung des Internets bei verschiedenen Bevölkerungsgruppen bei einer digitalen Form der Bürgerbeteiligung. Auch können bereitgestellte Informationen manipuliert sein; man denke nur an versteckte Unternehmens-PR in Wikis. Umgekehrt muss geprüft werden, ob alle Betroffenen durch digitale Informations- und Kommunikationsformen erreicht werden oder ob sich die Erreichbarkeit auf bestimmte Bevölkerungsgruppen beschränkt und damit unbeabsichtigt zur digitalen Spaltung beiträgt. Eng damit verknüpft ist die Frage, ob sich die in Bezug auf den jeweiligen Anwendungsfall notwendigen und hinreichenden Informationen ausreichend vollständig generieren lassen. Welche zusätzlichen Datenquellen sind notwendig und welcher Aufwand ist zu erwarten, um Informationslücken zu schließen und Verknüpfungen vorzunehmen?

Oft wird argumentiert, dass die neuen Formen der Wissensgewinnung aktuellere, präzisere oder feinräumigere Informationen ermöglichen, die mit bisherigen Verfahren der Wissensorganisation und Entscheidungsfindung nicht zu generieren sind. Dies kann durchaus zu Ressourceneinsparungen führen. Andererseits müssen die hoch granularen Informationen oftmals doch wieder sinnvoll aggregiert werden, was beispielsweise bei Echtzeitinformationen der Fall ist. Das kostet Ressourcen.

Standardisierung und Analyse


Was messen die Daten und Informationen eigentlich? Diese Frage zielt beispielsweise auf die Messniveaus und Ausprägungen ab, die generiert und abgeleitet werden können. Ein wichtiger Punkt ist auch, wie die Erhebungsmerkmale charakterisiert sind, etwa im Vergleich zu den demografischen Standards des Statistischen Bundesamts. Ist in einer Online-Befragung von „Studenten“ die Rede, meint sie nicht unbedingt Studenten im Sinne des Statistischen Bundesamtes oder Studenten im Sinne der Arbeitsagentur. Die sachliche Standardisierung der Messung, beispielsweise die Ableitung von Branchenzuordnungen, kann sehr aufwendig sein.

Gleiches gilt für die räumliche Standardisierung. Sollen die zu generierenden Informationen räumlich verortet werden, ist mit Unsicherheiten im Raumbezug hinsichtlich der Datenverarbeitung und Visualisierung umzugehen. Ist in einer Katastrophenmeldung auf Facebook von der „Brücke hinter dem Supermarkt“ die Rede, lässt sich daraus nicht ohne weiteres eine Geocodierung ableiten. Räumliche Einteilungen, die beispielsweise die IHK in ihren Datenbanken zur Prognose des Fachkräftebedarfs nutzt, decken sich nicht unbedingt mit Gemeindegrenzen. Wieder kann hoher Aufwand entstehen, wenn eine Standardisierung etwa in Anlehnung an die Raumbeobachtung des BBSR oder die Regionalen Standards des Statistischen Bundesamts erfolgen soll. Ganz analoge Überlegungen sind schließlich für die zeitliche Standardisierung anzustellen. Die wenigsten neuen Datenquellen orientieren sich an den Stichtagen der amtlichen Statistik. Aber wie gut lassen sich die zu generierenden Informationen dann zeitlich verorten? Wie lässt sich mit Unsicherheiten und Unregelmäßigkeiten im Zeitbezug bei der Datenverarbeitung und Verknüpfung umgehen? Und wie aufwendig ist eine Standardisierung?

Zumindest bei ihren ersten Gehversuchen, neue Datenquellen zu analysieren – egal ob Small Data oder Big Data –, kommen Städte kaum um einen hohen manuellen Aufwand herum. Sie müssen Indikatoren bilden, Zusammenhangsstrukturen analysieren, geeignete Formen der Visualisierung ausprobieren und anpassen. Werden Datenströme kontinuierlich integriert, etwa in City-Dashboards, sind auch automatisierte Analysen erforderlich. Städte müssen den Ressourcenaufwand dafür abschätzen, um zu entscheiden, wie sinnvoll die Integration solcher Daten ist.

Umsetzung und wissenschaftlicher Fortschritt


Mit Big Data und Data Analytics eröffnen sich Wege, an räumlich und zeitlich hoch aufgelöste Informationen zu gelangen und diese in Steuerungswissen zu transformieren. Von großem Interesse ist dabei die Prognose, auch „Predictive Analytics“ genannt. Sie erfordert jedoch neue Kompetenzen bei den Datenanalysten. Bisher wertet die öffentliche Verwaltung mithilfe der deskriptiven Statistik üblicherweise Vergangenheitsdaten aus; selten nutzt sie Szenarioanalysen und Trendmodelle. Prognosen auf Basis großer Datenmengen erfordern aber nicht nur neue Verfahren des Data Mining und Machine Learning, sondern häufig auch spezielle Datenstrukturen. So müssen Daten auf der Ebene des einzelnen Bürgers oder der einzelnen Interaktion abgebildet werden – gleichzeitig werden historische Datensichten benötigt. Diese bilden aktuelle IT-Systeme in der Regel nicht ab.

Mit einem Prognosemodell an sich ist es nicht getan. Zugleich müssen die Kommunen Methoden implementieren oder sogar neu entwickeln, um sicherzustellen, dass die Analyseergebnisse und die daraus abgeleiteten Entscheidungen und Entscheidungsregeln korrekt sind. Besonders spannend ist dabei, was passieren soll, wenn sich Widersprüche zwischen den Ergebnissen klassischer und neuer Entscheidungsfindungsformen, beispielsweise bei der Auswahl von Standorten, ergeben. Zusätzlich ist der Aufwand abzuschätzen, um Verzerrungen und Manipulationen der gewonnenen Informationen aufzudecken. Letztlich resultiert das in der Erkenntnis, dass „mehr Daten“ nicht unbedingt „mehr Wissen“ bedeuten. Um die Ergebnisse sinnvoll zu analysieren und zu validieren, müssen die Kommunen Akteure aus verschiedensten Disziplinen einbeziehen, beispielsweise GIS-Experten, Soziologen, Computerlinguisten, Statistiker, aber auch ihre Experten aus den Fachreferaten.

Aus der Perspektive der Stadtforschung interessieren zudem die Möglichkeiten des wissenschaftlichen Fortschritts. Schaffen neue Verfahren neue Forschungsimpulse, da Phänomene beobachtbar werden, die mit klassischen Verfahren bislang verborgen geblieben sind – wie etwa Dynamiken auf Einzelfallebene, also nicht aggregierte Bewegungsmuster. Schaffen die neuen Verfahren neue Möglichkeiten der Forschungskooperation, die sich in Anlehnung an das Konzept der „Shared Economy“ als „Shared Scientific Research“ bezeichnen ließen?

Um die Nachhaltigkeit der Ansätze sicherzustellen, spielt es eine Rolle, ob die gewählten Verfahren und Technologien kontrolliert mitwachsen können. Bei einem Dashboard stellt sich beispielsweise die Frage nach der Integrierbarkeit neuer Indikatoren. Manche Verfahren sind lediglich für punktuelle Anwendungsbereiche geeignet, andere können verallgemeinert und/oder erweitert werden. Nur – wer ist am Ende dafür verantwortlich, dass das Wachsen gelingt, wenn Datenmengen immer größer und komplexer werden? Experimentelle Organisationsformen mögen am Anfang sinnvoll sein, damit sich innovative Ansätze entwickeln können, aber um diese Innovationen ins tägliche Geschäft der Stadtverwaltung umzusetzen, braucht es dauerhaft Mitarbeiter in neuen Rollen und Funktionen, etwa eigene Datenmanager.

Die datenbasierte Steuerung („Prescriptive Analytics“) muss zusätzlich noch berücksichtigen, dass Rückkopplungseffekte vorliegen. Entscheidungsprozesse 2.0 werfen neue Fragen auf: Wie können Städte und Kommunen Rückkopplungen integrieren oder gar schon zu Beginn mitdenken? Wie stark werden Nachhaltigkeit und Weitsicht planerischer Entscheidungen beeinträchtigt, wenn unmittelbares Feedback auf jede einzelne Handlung der Akteure in Politik und Verwaltung zu erwarten ist, etwa weil dies die Umsetzung hemmt? Wie stark werden diese Bereiche hingegen gefördert, wenn unmittelbares Feedback laufend neue Perspektiven in die Planungsprozesse einbringt?

Tags:
Created by TobiasSteinherr on 2018/02/08 13:41