Wissensschöpfung und Data Analytics

Last modified by TobiasSteinherr on 2018/02/08 13:44

Im Zeitalter der Digitalisierung scheinen Daten allgegenwärtig und endlos zu sein: Digitalisierung produziert Daten, das „Öl des 21. Jahrhunderts”, in ungeahntem Ausmaß. Dennoch sind Daten zugleich über- und unterbewertet. Unterbewertet sind sie, da datengenerierende Systeme scheinbar endlose Mengen von Bits und Bytes produzieren. Überbewertet sind sie, weil alle Welt von der „Macht der Daten“ spricht, ohne sich im Klaren zu sein, wo die Grenzen des neu zu gewinnenden Wissens liegen. Denn: Der Großteil der Daten ist weder verknüpft noch organisiert und kann deswegen nicht in Wissen und damit Macht (Foucault 19801: 63) verwandelt werden.

Digitale Transformation durch Technologien


Häufig fällt in diesem Zusammenhang das Schlagwort von der „digitalen Transformation“ oder gar der „digitalen Disruption“. Technologie wurde bisher vorrangig genutzt, um Aufgaben und Prozesse zu unterstützen und dadurch Unternehmen oder auch die öffentliche Hand zu befähigen, ihre Geschäftsmodelle effektiv zu realisieren. Digitale Transformation bedeutet hingegen, dass neue Geschäftsmodelle und Aufgaben um die Technologie herum entwickelt werden. Es geht nicht mehr nur darum, Verwaltungsprozesse zu digitalisieren, also beispielsweise Antragsstellungen übers Internet zu ermöglichen. Vielmehr stehen ganze Planungs- und Entscheidungsprozesse auf dem Prüfstand.

Wissensschöpfung und Data Analytics: Analogien


Doch welche Chancen und Risiken haben Städte und Kommunen, wenn sie neue technologiegestützte Verfahren der Wissensgewinnung nutzen und bisher unausgeschöpfte Datenquellen analysieren? Um diese Frage zu beantworten, benötigen wir zuerst einen systematischen Überblick über solche Verfahren und deren typische Einsatzgebiete, um nicht „in Informationen zu ertrinken und nach Wissen zu dürsten“ (Naisbitt 19822: 24). Entsprechend den eingangs beschriebenen drei Herausforderungen, die eben auch Stufen der Wissensschöpfungs-Kette darstellen, suchten wir also nach Beispielen für Verfahren

  • zur Sammlung und Bereitstellung von Wissen und Informationen (Dossier 1),
  • zur Ordnung, Bewertung und Diskussion von Wissen (Dossier 2) und
  • zur Entwicklung von Wissen und zur Entscheidungsfindung (Dossier 3).

Zum Einsatz kommen dabei Verfahren und Technologien, die die strukturierte Zusammenführung, Bereitstellung und Analyse von Daten ermöglichen, um daraus Informationen, Wissen und Handlungsmacht zu generieren. Es handelt sich somit um Dateninfrastrukturen und – gemäß der folgenden Definition – um Verfahren zum Zweck des „Data Analytics“ in einem weit gefassten Sinn, also einschließlich des „Pre-Analytics“.

Data Analytics


Data Analytics dient dazu, Wissen aus Informationen zu gewinnen, vgl. hierzu die Ausführungen zur Wissenspyramide von Kitchin (20143: 10), und erfordert das Vorliegen ausgewählter, aufbereiteter und bereinigter Daten (Pre-Analytics), die in Abhängigkeit vom Ziel der Analyse und von der konkreten Aufgabe zu transformieren, zu reduzieren oder auch anzureichern sind. Es verfolgt grundsätzlich vier aufeinander aufbauende Ziele. Erstens die Deskription (Descriptive Analytics), um die Frage „Was ist passiert?“ zu beantworten. Zweitens die Erklärung bzw. Diagnostik (Diagnostic Analytics) als Antwort auf die Frage „Warum ist es passiert?“. Drittens die Prognose (Predictive Analytics) „Was wird (wahrscheinlich) passieren?“, und viertens schließlich die Steuerung (Prescriptive Analytics) „Wie können wir es passieren lassen?“ (Sharda et al. 20144) Diese Analytics- Formen bzw. Ziele korrespondieren mit den Stufen der Wissensschöpfungs-Kette. Pre-Analytics entspricht dem Sammeln und Bereitstellen; Deskription und Diagnostik dienen dem Ordnen und Bewerten; Prognose und Steuerung schließlich ermöglichen die Entscheidungsfindung.

Methoden


Je nach Aufgabe werden Methoden der klassischen Statistik, des Data Mining oder auch des Machine Learning eingesetzt. Typische Data-Mining-Aufgaben sind beispielsweise Segmentierung, Klassifikation, Assoziation, Trendanalyse oder Prognosemodelle (Berry/Linoff 20115). Machine Learning bezeichnet den Einsatz von Algorithmen, die (teilweise) selbstständiges, iteratives Lernen von Mustern und Regeln aus Daten ermöglichen.

  1. ^ Foucault, M., 1980: Power/Knowledge Selected Interviews & Other Writings 1972-1977. London.
  2. ^ Naisbitt, John, 1982: Megatrends: Ten New Directions Transforming Our Lives. 6 Auflage. New York.
  3. ^ Kitchin, Rob, 2014: The Data Revolution. 1. Auflage. London.
  4. ^ Sharda, Ramesh, Delen, Dursun; Turban, Efraim, 2014: Business Intelligence and Analytics: Systems for Decision Support, Global Edition. 10. Hrsg. Upper Saddle River, NJ, USA.
  5. ^ Berry, Michael J. A.; Linoff, Gordon S., 2011: Data Mining Techniques: For Marketing, Sales, and Customer Relationship Management. 3. Auflage. New York.
Tags:
Created by TobiasSteinherr on 2018/02/08 13:41