buchreport

Data Science: Was wir aus Daten lernen können

Künstliche Intelligenz, Machine Learning, Predictive Analytics, Big Data, Smart Data – das sind nur einige der Hype­- und Buzzwords, die in den letzten Jahren durch die Medien gegeistert sind und einerseits große Fragezeichen, andererseits aber auch große Erwartungen ausgelöst haben. Was ist der konkrete Nutzen von Data Science?

Im IT-Channel von buchreport.de erklärt Wolfgang Weidinger, Vorstand der gemeinnützigen Vienna Data Science Group und Mitautor des Handbuch Data Science, die Grundbegriffe dieser Disziplin. Das Buch erschien im Hanser Fachverlag.

Was Digitalisierung mit Data Science zu tun hat

Die Digitalisierung wird nicht nur in IT-­Abteilungen, sondern auch in Vorstandssitzungen diskutiert. Die Vorstände sämtlicher großer Unternehmen haben die Digitalisierung als Kernthema in ihre Geschäftsstrategie aufgenommen. Doch ohne die Verfügbarkeit von Daten kommen Digitalisierungsinitiativen sehr schnell zum Erliegen. Und selbst wenn man Daten sammelt, ist dies kein Garant für Erfolg, denn diese müssen auch in hoher Qualität vorliegen.

Mit Daten die eigene Organisation neu erfinden? Klingt gewagt, aber um nichts anderes geht es bei Data Science. Wissenschaft (Science) zielt darauf ab, neues Wissen zu generieren. Und neues Wissen kann neue Geschäftsmodelle ermöglichen.

Wir wollen sowohl verständliche Antworten auf die vorhandenen Fragen geben als auch die überschießenden Erwartungen einfangen. Dies passiert, indem wir es Ihnen ermöglichen möchten, den Motor der Digitalisierung – die Daten – nicht nur zu verstehen, sondern auch mit diesen zu arbeiten. Zum Beispiel durch die Darstellung ausgewählter Analysetechniken, aber auch durch tiefes Eintauchen in technologische Detailfragen, um zu zeigen, wie aus Daten Erkenntnisse geschaffen werden, die dem an sie gestellten Anspruch gerecht werden können.

Ein Beispiel aus dem verlagsnahen Bereich Unterricht und Ausbildung soll die Potenziale von Data Science für Verlage aufzeigen. Das Ziel dabei ist es, ein realistisches Bild der Möglichkeiten von Data Science jenseits des allgegenwärtigen Hypes zu geben.

IT-Grundlagen und Technologien der Zukunft

Mehr zum Thema IT und Digitalisierung lesen Sie im IT-Channel von buchreport und Channel-Partner knk. Hier mehr

 

Was zu Data Science gehört

Data Science ist die Wissenschaft, die den eingangs genannten Begriffen und Buzz­words übergeordnet ist. Sie setzt sich aus drei großen Strömungen zusammen:

  1. Computer Science/IT
  2. Mathematik/Statistik
  3. Domainexpertise in jenen Branchen, in denen Data Science Anwendung findet

Das macht Data Science zu einer interdisziplinären Wissenschaft, in der sich eine sehr heterogene Schar von Spezialisten bewegt, die alle ein Ziel verfolgen:

Verständliche Antworten auf Fragen anhand von Daten geben.

Wie später noch im Detail ausgeführt wird, kann diese Aufgabe sehr häufig nur von einem Team aus Data Scientists mit verschiedenen Spezialisierungen bewältigt werden.

Der Nutzen von Data-Science-Projekten

Das war einer der Gründe für die Entstehung der Vienna Data Science Group (VDSG): Wir wollten einen neutralen Ort schaffen, an dem interdisziplinärer Austausch von Wissen zwischen allen involvierten Experten international stattfinden kann.

Diese gemeinnützige Gesellschaft ist eine NPO (Nichtregierungs-Organisation) und NGO (gemeinnützige Organisation), die sich die Entwicklung des gesamten Data-­Science­-Ökosystems (Ausbildungen, Zertifizierungen, Standardisierungen, Untersuchung der gesellschaftlichen Auswirkungen etc.) europaweit auf die Fahnen geschrie­ben hat. Dabei wird ganz besonderes Augenmerk auf die Bildung und Erhaltung einer diversen Data­-Science­-Community gelegt, da diese das Fundament für substanziellen Fortschritt darstellt. Ein vergleichbares Ziel verfolgt zum Beispiel die IEEE im Ingenieursbereich.

Die Analyse und Nutzung von Daten in den unterschiedlichsten Branchen hat das Potenzial

  1. bestehende Geschäftsprozesse im Unternehmen zu verbessern und
  2. völlig neue Geschäftsmodelle zu ermöglichen.

Geschäftsprozess-Optimierung

Unter dem ersten Punkt werden Investitionen und laufende Kosten optimiert. Durch Datenanalysen können Unternehmen erkennen, wie sich Investitionen langfristig auf den Geschäftserfolg auswirken. Telekommunikationsunternehmen könnten beispielsweise Hunderte Mio Euro an Kosten innerhalb des 5G­-Netzausbaus sparen. Laufende Kosten können besser analysiert werden und oft wesentlich reduziert werden.

Hierbei gibt es eine ganze Reihe an Möglichkeiten: die Vereinfachung von Prozessen, das Erkennen von Fehlern im Produktionsbetrieb, bevor diese entstehen, oder die zielgerichtete Ansprache von Kunden. Ebenso können durch zielgerichtetes Marketing auch neue Kunden und damit neue Umsätze generiert werden.

Neue Geschäftsmodelle

Beim zweiten Punkt geht es um völlig neue Ansätze, wie sie etwa große IT-­Unternehmen wie Facebook oder Google nutzen, die ihr gesamtes Geschäftsmodell auf die Nutzung von Daten aufgebaut haben.

Denn die fortschreitende Digitalisierung von betrieblichen Organisationen bis hin zu NGOs betrifft eben nicht nur die Auswirkungen auf Kosten und Einnahmen innerhalb des Kerngeschäftes. Es können auch neue Einnahmequellen mithilfe von Daten gewonnen werden. Zu diesem Thema bestehen rechtliche Rahmenbedingungen wie der Datenschutz. Dabei geht es nicht allein um die Einhaltung der datenschutzrechtlichen Bedingungen der DSGVO, sondern auch um Organisations- und Prozessfragen wie die Sicherstellung von Prozessqualitätsstandards, die Aufgaben von Datenschutzbeauftragten oder die kommende, aber noch nicht durchgesetzte ePrivacy-Verordnung der EU.

Gleichzeitig sind bestimmte Bedingungen in der Unternehmenskultur für datengetriebene Projekte und Geschäftsmodelle förderlich. Umgekehrt gibt es „Antipatterns“ in Unternehmen, die das Gelingen von datengetriebenen Projekten gefährden. Dazu gehören: 

  1. Abwertung der Domänenexpertise – man geht davon aus, dass es auf die IT und nur auf die IT ankommt, aus den Daten „etwas zu machen“, und dass fachliche Kenntnisse weniger wichtig sind und Fachleute aus dem Business nicht konzeptionell eingebunden werden müssen
  2. „Know it all“-Mentalität – man stellt einen Experten ein und lässt ihn ohne Kollaboration mit seinem Team und mit Experten angrenzender Bereiche werkeln
  3. Schwarzmalerei – wer Data Science als Gefahrenzone behandelt, wird ihr Potenzial nicht realisieren
  4. Angstkultur – in unserem Feld von „Trial and Error“ ist Fehlertoleranz angezeigt
  5. Blindes Vertrauen in selbsternannte Experten – seit es „hip“ ist, Data Scientist zu werden, und hohe Gehälter winken, sollten bereits die Recruiter beim Bewerbungsgespräch genauestens nachfragen, was ein Kandidat tatsächlich mitbringt
  6. Over-Engineering – die eingesetzte Technik sollte der Komplexität der Daten und der Größe des Projekts angemessen sein. 

Beispiel Unterricht und Ausbildung

Digitalisierung in Schulen zu etablieren und AI für den Unterricht und die Förderung von Talenten zu nutzen, kann beispielsweise bedeuten, dass mittels Regressionsverfahren Lehrmethoden analysiert und Trends abgeleitet werden, um vorherzusagen, ob Leistungen beim Einsatz einer bestimmten Methode sinken oder steigen werden.

Mal angenommen, wir hätten Zugriff auf alle Daten. Wir könnten Verhaltensfaktoren ins „Leistungsmodell“ einbauen. Wir können darüber hinaus genau analysieren, wie effizient Ausbildungsmethoden sind und ob es sich lohnt, weiter in sie zu investieren.

Vision

Je mehr AI in den Schulen zur Verfügung steht, desto individueller können Schüler betreut werden. Viele von uns wuchsen noch in einem Schulsystem auf, in dem ein Lehrer in erster Linie Frontalunterricht gab.

Die moderne Schule beginnt mit einem Einstufungs­-Assessment, um zu ermitteln, was das Kind bei Schuleintritt an Ressourcen und Fähigkeiten mitbringt. Es geht letztlich darum, Talente zu fördern, und nicht darum, das Kind in ein System zu pressen, das ihm – unabhängig von seinen Begabungen – vorschreibt, was richtig oder falsch ist.

Bei der Leistungsbewertung wird die volle Palette an Data­-Science-­Methoden genutzt. Die Sprache wird analysiert und ebenso die Art, wie Schüler an Problemlösungen herangehen. Es wird zudem analysiert, wie Schüler Informationen aufnehmen, ob sie beispielsweise visuell oder auditiv veranlagt sind.

Die Inhaltsvermittlung findet zu einem großen Teil digital statt. Das bedeutet auch, dass die Qualität konstant ist und diese kontinuierlich verbessert werden kann. In modernen Lerncentern werden Lehrer vom Frontalunterrichtenden zum Mentor. Die Interaktion zwischen Individuen ist wesentlich. Es wird direkt verifiziert, ob der Schüler den Inhalt verstanden hat oder nicht.

Spielerisch lernen die Kinder neue Fähigkeiten und erwerben Wissen. Lehrpläne gibt es nicht mehr, Lernziele werden individuell angepasst. Auch hilft AI zu verstehen, welche Lehrmethoden bei welchen Schülern besser greifen. Nach dem Prinzip mehr vom Guten und weniger vom Schlechten kann die Didaktik individuell an den Einzelnen angepasst werden.

Die Kinder werden auf eine sich verändernde Zeit vorbereitet. Schüler lernen deswegen nur die wichtigsten Fakten, denn Fakten lassen sich auch aus dem Internet abrufen. Sie lernen vor allem Verhaltensmuster, um erfolgreich Fakten zu identifizieren und von Unwahrheiten zu trennen.

Es werden zudem Verhaltensmuster gelehrt, wie man effizient Probleme löst und wie man sich neuen Herausforderungen stellt. Die Kinder lernen dabei auch, dass es keine Fehler, sondern nur Feedback gibt. Sie werden ermuntert, Neues auszuprobieren, anstatt zu versuchen Fehler zu vermeiden. Sie lernen, wie man mit Feedback umgeht.

Daten

Daten für die Ausbildung können beispielsweise jede Form von Tests sein wie Einstufungstests, aber auch Bewertungen von Lehrern und der Art wie Unterrichtsmaterialien eingesetzt werden.

Wesentlich ist, dass Daten aus Testergebnissen nicht nur „richtig“ oder „falsch“ wiedergeben. Über Natural Language Processing können beispielsweise auch Rückschlüsse auf das Ausdrucksvermögen gezogen werden und darüber, ob Schüler eventuell in destruktiven Mustern handeln, die sie vom Lernerfolg abhalten.

Nutzen Schüler soziale Medien, kann ermittelt werden, in welche Richtung sie sich entwickeln. Es können Modelle generiert werden, die verstehen lassen, wie sie lernen und denken.

Anwendungsfall MOOC

MOOCs (Massive Open Online Courses) sind inzwischen zu einem festen Bestandteil des Bildungsangebots geworden. Udemy, Udacity, Pluralsight, EDX, Coursera und viele andere Online-­Lernangebote überschwemmen den Markt. All diesen Kursen fehlt noch die Möglichkeit, die Effizienz einzelner Lektionen im Detail zu messen. Die entsprechenden Daten dazu können gesammelt werden. Anwender können pro Lektion Feedback geben. MOOC­-Plattformen können messen, wie oft einzelne Segmente vom Anwender wiederholt werden. Auch die Analyse von Fragen in Diskussionsforen gibt Aufschluss darüber, wie gut die Inhalte sind.

Daraus kann ein Modell erstellt werden, das auf Basis gelabelter Auswertungen vorhersagt, wie effizient ein Videosegment ist.

Anwendungsfall personalisiertes Lernen

Alle Schüler haben individuelle Stärken und Schwächen. Ausbildungsinstitute können Profile aufbauen, in denen festgehalten wird, wie jemand denkt und lernt. Hier können auch einzelne Profile verglichen und Lerngruppen zusammengeführt werden, die aufgrund einer Auswertung zusammenpassen könnten.

Kurse können in Form einer Recommendation-Engine angeboten werden. Je mehr Feedback Schüler geben, desto genauer werden Kurse empfohlen, von denen diese Schüler wiederum profitieren können.

Herausforderungen

Das bestehende Schulsystem ist nicht flexibel genug, sich den Anforderungen einer sich verändernden Gesellschaft anzupassen. Gut ausgebildete Menschen sind das Fundament unserer Wissensgesellschaft. Andererseits kann man kritisieren, dass die detaillierte Analyse, wie Schüler lernen, ein Eingriff in die Privatsphäre und aus Datenschutzgründen problematisch ist. Hier gilt es die erforderliche Balance herzustellen.

Mit freundlicher Genehmigung des Carl Hanser Verlags.

Stefan Papp, Wolfgang Weidinger, Mario Meir-Huber, Bernhard Ortner, Georg Langs, Rania Wazir: Handbuch Data Science. Mit Datenanalyse und Machine Learning Wert aus Daten generieren.

Hanser Fachbuch 2019.

304 Seiten broschiert. E-Book (EPUB+PDF) inside. EUR 39,90

E-Book (EPUB) EUR 31,99

 

Kommentare

Kommentar hinterlassen zu "Data Science: Was wir aus Daten lernen können"

Hinterlassen Sie einen Kommentar

Mit dem Abschicken des Kommentars erklären Sie sich damit einverstanden, dass Ihre Daten elektronisch gespeichert werden. Diese Einverständniserklärung können Sie jederzeit gegenüber der Harenberg Kommunikation Verlags- und Medien-GmbH & Co. KG widerrufen. Weitere Informationen finden Sie in unseren Datenschutz-Richtlinien

E-Mail Adresse wird nicht veröffentlicht.


*

Themen-Kanäle

SPIEGEL-Bestseller

1
Fitzek, Sebastian
Droemer
2
Neuhaus, Nele
Ullstein
3
Garmus, Bonnie
Piper
4
Schlink, Bernhard
Diogenes
5
Follett, Ken
Lübbe
27.12.2023
Komplette Bestsellerliste Weitere Bestsellerlisten

Veranstaltungen

Es gibt derzeit keine bevorstehenden Veranstaltungen.

größte Buchhandlungen