Willkommen in der Data University

Die Data University ist ein interaktives Workshop- und Trainings-Event mit dem Fokus auf alle wichtigen Themen rund um Daten. An 2 Tagen haben die Teilnehmer die Möglichkeit, sich aus 24 Kursmodulen aus den Bereichen Data Strategy, Data Engineering und Data Science das für sie passende Programm auszuwählen.

WO

Goethe Universität
Frankfurt am Main
Seminarhaus

WANN

Mittwoch / Donnerstag
09. – 10. Oktober 2019
09:00 – 18:00 Uhr


Was erwartet dich?
Die Data University bietet an 2 Tagen 24 Workshops in 4 parallelen Tracks: Data Strategy, Data Engineering, Data Science und Data Technology. Als Teilnehmer kannst du pro Tag 2 Sessions belegen – jeweils eine Session am Vormittag sowie am Nachmittag. Du stellst dir dein persönliches Programm zusammen!

Wer sollte teilnehmen?
Die Data University vernetzt Einsteiger und Professionals der Bereiche Data Strategy, Data Engineering, Data Science und Data Technology. Einsteiger und Fortgeschrittene sind willkommen!

Warum sollte ich teilnehmen?
Die Data University bietet dir ein umfangreiches Angebot an interaktiven Kursen aus verschiedenen Bereichen. Du hast die Möglichkeit, dir dein eigenes Kursprogramm über zwei Tage zusammenzustellen. Das breitgefächerte Themenspektrum bietet Insights, Inspirationen und Learnings sowohl für Anfänger als auch Fortgeschrittene.

Early Bird Warteliste

Trage dich jetzt ein und sichere dir als Erster dein Early Bird Ticket!

Trage dich auf unserer Early Bird Warteliste ein und erfahre als Erster, wenn unser Ticketverkauf startet. Sichere dir eines der limitierten Tickets zum Early Bird Rabatt!

Early Bird 990 € (bis 30. Juli), Frühbucher 1.290 € (bis 11. September), Vollpreis 1.490 €

Die Zeit läuft!

Bald startet die Data University!

Curriculum

Wähle aus über 20 Sessions dein persönliches Programm.
Expand All +
  • Tag 1

    09. Oktober 2019

  • Apache Spark hat sich in den letzten Jahren von einem Forschungsprojekt hin zu einer Kerntechnologie im Big Data Umfeld entwickelt. Spark ist, ähnlich wie Hadoop, eine verteilte Cluster-Computing-Technologie, mit der sehr große Datenmengen verteilt verarbeitet werden können. Im Gegensatz zu Hadoop werden im Spark-Cluster Daten in-Memory, also im Arbeitsspeicher verarbeitet, was in vielen Fällen einen deutlichen Performancezuwachs mit sich bringt. Auch im Data Science Bereich findet Spark heute an vielen Stellen Anwendung. Im Workshop „Apache Spark für Data Science“ lernst du die theoretischen sowie technischen Grundlagen von Apache Spark und wendest diese auf konkrete Datenverarbeitungsprobleme in R oder Python an. Somit erhältst du einen anwendungsorientierten Einblick in die Technologie und kannst im Anschluss erste Spark Jobs erstellen und auf deine eigenen Datenbestände anwenden.
    Data Engineering

  • Vor der Gewinnung von Informationen aus Daten (z.B. durch Visualisierung, statistische Analysen oder Machine Learning) müssen diese in der Regel erst aufwändig aufbereitet werden. R und Python bieten hierfür mit den Packages dplyr und pandas über den Basisumfang hinaus hilfreiche Funktionen an, die dich in die Lage versetzen, auch sehr komplexe Datenaufbereitungen durchzuführen. Hierbei können auch größere Datenmengen schnell und komfortabel verarbeitet werden. In diesem Workshop lernst du, wie sich komplexe Data Preparation Schritte mit Hilfe der Pakete dplyr und pandas elegant durchführen lassen. Dazu werden zentrale Datenaufbereitungsoperationen, wie filtern, aggregieren und reshapen, anhand von Beispielen erläutert und im Rahmen von Übungen vertieft. Weiterhin werden die Verkettung und Gruppierung von Operationen in Pipelines besprochen. Nach dem Workshop bist du in der Lage, verschiedene Schritte zur Datenaufbereitung in R und Python zu entwickeln.
    Data Science

  • Immer mehr Business Intelligence Werkzeuge bieten fortgeschrittene Methoden der Datenanalyse sowie Funktionalitäten der Datenaufbereitung. Hinzu kommt, dass Fachanwender zunehmend in einen Dialog mit Data Scientists treten müssen um Use Cases zu identifizieren und die Ergebnisse mathematischer Analysen zu verstehen. Dies erfordert von Anwendern ein grundlegendes Verständnis der Vorgehensweise der wichtigsten Analysekonzepte sowie die Fähigkeit den Output fortgeschrittener Analysemethoden richtig interpretieren zu können. Der Kurs führt Business Analysten in die Vorgehensweise und die Methoden der Data Science ein. Fokus ist das Formulieren analytischer Fragestellungen sowie die visuelle Analyse. Die erarbeiteten Methoden können im Modul „Interaktive Datenvisualisierung“ praktisch anhand von R Übungen vertieft werden.
    Data Science

  • Data Governance, Datenqualität und Data Preparation sind seit Jahren große Data & Analytics Trends. Neben dem Einsatz in klassischer BI und dem Data Warehouse sind Daten das Fundament von Advanced und Real-Time-Analytics sowie dem Internet of Things. Diese Daten-intensive Anwendungen benötigen mehr denn je eine durchdachte Datenarchitektur. Denn eine immer schneller wachsende Datenwelt, Datenbeschaffung sowie deren Aufbereitung gelten als große Herausforderungen: (1) Was daten-zentrische Unternehmen – warum eine Datenarchitektur? (2) Was unterscheidet das Data Warehouse vom Data Lake, welche gängigen Datenarchitekturansätze finden dabei jeweils Anwendung und welche Rolle spielen diese aus Sicht von Analytics? (3) Welche Datentypen gibt es, etwa transaktionale versus maschinen-generierte Daten wie Weblogs und JSON-Formate, und wie unterscheidet sich deren Verwendung? (4) Was sind die gängigsten Data Stores (z.B. relational versus NoSQL) und Zugriffsmechanismen? (5) Wie werden Rohdaten für verschiedene Verwendungs-/Auswertungstypen fit gemacht? (6) Wie unterscheidet sich die Verarbeitung von historischen zu real-time Daten?
    Data Engineering

  • Im Rahmen unserer Data Technology Sessions möchten wir Softwareunternehmen mit Fokus auf Data Science, Cloud, Machine Learning und Data Engineering die Möglichkeit geben, interaktiv und persönlich ihr Produkt einem interessierten Teilnehmerkreis vorzustellen. Im Rahmen von bis zu 3-stündigen Slots, an beiden Tagen jeweils am Vormittag und Nachmittag, sollten die Teilnehmer die Möglichkeit bekommen, hautnah mit neuen Technologien in Kontakt zu kommen. Interessierte Unternehmen melden sich bitte unter hier.
    Data Technology

  • Cloud Computing gewinnt für viele Unternehmen immer weiter an Relevanz. Auch im Bereich Data Science und AI ist die Cloud ein zentraler Treiber für den Erfolg von Forschung, Entwicklung und Deployment. Im Workshop „Cloud Computing für Data Science“ erfährst du, wie du schnell und unkompliziert Compute-Aufgaben im Rahmen Ihrer Data Science Projekte in die Cloud auslagern kannst. Dabei fokussieren wir uns auf die Vorstellung relevanter Cloud-Komponenten entlang des Data Science Workflows und setzen diesen Schritt für Schritt mit dir um. Nach dem Workshop bist du in der Lage, eigene Data Science Workflows in der Cloud zu erstellen und die dafür notwendigen Komponenten selbständig zu deployen.
    Data Engineering

  • Ungeachtet der weit verbreiteten Anwendung werden Machine Learning Modelle nach wie vor als Black Box gesehen. Es wird häufig argumentiert, dass Machine Learning Modelle zwar eine sehr gute prädiktive Performance aufweisen, die Parameter jedoch nicht interpretierbar seien. Im Zuge neuerer Entwicklungen im Bereich Machine Learning Interpretability stimmt diese Behauptung jedoch nicht mehr. Dieser Workshop vermittelt, wie du R Methoden aus dem Bereich Machine Learning Interpretability einsetzen kannst, um die Prognosen deiner Machine Learning Modelle detailliert zu analysieren. Hierbei verwenden wir insbesondere die R Pakete DALEX und LIME. Im Anschluss an den Workshop bist du in der Lage eigenständig Black Box Modelle zu durchleuchten und die Treiber hinter den Prognosen zu verstehen.
    Data Science

  • Software, die Machine Learning automatisiert, findet in den letzten Jahren immer mehr Verbreitung. Kommerzielle Advanced Analytics Plattformen integrieren diese Funktionen in ihr Portfolio, spezifische Applikationen werden angeboten und es existieren mittlerweile verschiedene Open Source Bibliotheken dazu. Aber was genau wird bei diesen Ansätzen automatisiert und in welchen Szenarien wird die Software genutzt? Können diese Ansätze in Zukunft sogar den Data Scientist automatisieren? Der Workshop hat das Ziel Automatisierte ML Lösungen einzuordnen, Einsatzszenarien sowie Möglichkeiten und Grenzen aufzuzeigen. Dabei geben wir einen Überblick über die folgenden Themen: (1) Übersicht Analytischer Prozess – was lässt sich automatisieren, (2) Marktübersicht AutoML Lösungen, (3) Deep Dive Technologie, (4) Grenzen der Automatisierung, (5) Rolle des Data Scientist/Business Analyst – Human in the loop
    Data Strategy

  • Die klassischen Business Intelleigence sieht mit dem Data Warehouse meist eine geordnete Datenarchitektur mit festen Regeln vor. Das Erforschen von Daten bis hin zur Operationalisierung von Advanced Analytics Lösungen benötigt wesentlich mehr Flexibilität. Das wirkt sich auf Datenarchitektur, Designprinzipien und Technologien aus. Dabei entstehen recht heterogene Lösungsansätze, die Anforderungsgerecht zu gestalten sind. Wir greifen die Grundprinzipien vom Vormittag auf und diskutieren exemplarische Zielbilder aus der Praxis projiziert. (1) Wie sichert man Data (Re-)Usability – für Business Analysts, BI Experten und Data Scientists? Welche Rolle spielen operative Systeme und Schnittstellen, Master & Reference Data Mananagement sowie Data Quality Management? (2) Was ist zu berücksichtigen, wenn man aus einem prototypischen Data Pipeline eine operationale und skalierfähige Anwendung machen möchte? (3) Was sind die Herausforderungen einer verteilten Datenarchitektur? Wie werden unterschiedliche Designprinzipien angewandt? Welche Technoligen eigenen sich für welches Anforderungsprofil? (4 )Praxisbeispiele – Problemstellungen und Lösungsansätze
    Data Engineering

  • Im Rahmen unserer Data Technology Sessions möchten wir Softwareunternehmen mit Fokus auf Data Science, Cloud, Machine Learning und Data Engineering die Möglichkeit geben, interaktiv und persönlich ihr Produkt einem interessierten Teilnehmerkreis vorzustellen. Im Rahmen von bis zu 3-stündigen Slots, an beiden Tagen jeweils am Vormittag und Nachmittag, sollten die Teilnehmer die Möglichkeit bekommen, hautnah mit neuen Technologien in Kontakt zu kommen. Interessierte Unternehmen melden sich bitte unter hier.
    Data Technology

  • Tag 2

    10. Oktober 2019

  • Shiny ist ein R Paket von RStudio, das es ermöglicht, interaktive Web-Applikationen direkt mit R zu entwickeln. Hierbei werden die umfangreichen Funktionalitäten von R mit einer interaktiven Benutzeroberfläche verbunden. R Shiny verwandelt statische Analysen in interaktive Nutzeranwendungen, deren Umfang weit über einfache Visualisierungen deutlich hinausgehen können. Dabei können R Entwickler vertraute Konzepte der R Programmierung anwenden und nach Belieben mit weiteren Webtechnologien wie z.B. HTML5, CSS oder JavaScript kombinieren und erweitern. Der Workshop „R Shiny Applikationen entwickeln” vermittelt dir grundlegende Kenntnisse über die Funktionalitäten von Shiny, die benötigt werden, um interaktive Visualisierungsoberflächen zu erstellen. Dabei werden die theoretisch erworbenen Konzepte anhand von Übungen praktisch vertieft. Am Schluss geben wir dir zudem einen Ausblick über fortgeschrittene Möglichkeiten, Shiny mithilfe von HTML und JavaScript eigenständig und beliebig zu erweitern. Nach dem Workshop bist du in der Lage, selbständig erste Shiny Applikationen in R zu entwickeln.
    Data Engineering

  • Die gemeinsame Arbeit an Data Science Projekten gehört heute zum Projektalltag. Git ermöglicht es Data Science Entwicklern, kollaborativ an Code-Projekten zu arbeiten, um diese von der Idee bis hin zur Produktion zu führen. Dabei stehen dem Entwickler diverse Funktionen zur Verfügung, die die gemeinsame Arbeit an dem Code vereinfachen sollen. Git lässt sich dabei sowohl auf Kommandozeilenebene als auch durch eine GUI bzw. 3rd Party Software verwalten. Im Workshop „Git für Data Science” erhältst du eine praxisorientierte Einführung in die Welt der Versionskontrolle mit Git. Dabei behandeln wir sowohl grundlegende Themen wie pushen, pullen, branchen und commiten als auch fortgeschrittenere Konzepte wie mergen oder rebasen. Nach dem Kurs bist du in der Lage, eigene Git Repositories anzulegen, zu verwalten und mit deinen Kollegen gemeinsam an einem Projekt zu arbeiten.
    Data Engineering

  • Mit TensorFlow hat Google eines der wichtigsten Machine Learning Frameworks der letzten Jahre für Python veröffentlicht. Mit TensorFlow lassen sich graphenbasierte Modelle programmieren, die sich insbesondere für die Entwicklung von neuronalen Netzen und Deep Learning Modellen eigenen. Zudem bietet TensorFlow die Möglichkeit, die entwickelten Modelle auf verteilten Systemen zu skalieren, um auch mit großen Datenmengen effizient umgehen zu können. Kürzlich wurde TensorFlow in der Version 2.0 veröffentlicht, die viele Änderungen wie bspw. die nahtlose Integration der TensorFlow API Keras mit sich brachte. Der Workshop „Deep Learning mit TensorFlow 2.0“ vermittelt dir grundlegende Kenntnisse der Theorie und Entwicklung von neuronalen Netzen und Deep Learning Modellen in TensorFlow 2.0. Dabei werden sowohl wichtige theoretische Aspekte behandelt als auch viele praktische Übungen in TensorFlow und Python durchgeführt. Im Anschluss an den Workshop bist du in der Lage, selbständig erste Deep Learning Modelle in TensorFlow und Python zu entwickeln.
    Data Science

  • Immer mehr Business Intelligence Werkzeuge bieten fortgeschrittene Methoden der Datenanalyse sowie Funktionalitäten der Datenaufbereitung. Hinzu kommt, dass Fachanwender zunehmend in einen Dialog mit Data Scientists treten müssen um Use Cases zu identifizieren und die Ergebnisse mathematischer Analysen zu verstehen. Dies erfordert von Anwendern ein grundlegendes Verständnis der Vorgehensweise der wichtigsten Analysekonzepte sowie die Fähigkeit den Output fortgeschrittener Analysemethoden richtig interpretieren zu können. Der Kurs führt Business Analysten in die Vorgehensweise und die Methoden der Data Science ein. Fokus des Kurses ist das Thema Machine Learning. Die erarbeiteten Methoden können im Modul „Advanced Machine Learning“ praktisch anhand von R Übungen vertieft werden.
    Data Science

  • Im Rahmen unserer Data Technology Sessions möchten wir Softwareunternehmen mit Fokus auf Data Science, Cloud, Machine Learning und Data Engineering die Möglichkeit geben, interaktiv und persönlich ihr Produkt einem interessierten Teilnehmerkreis vorzustellen. Im Rahmen von bis zu 3-stündigen Slots, an beiden Tagen jeweils am Vormittag und Nachmittag, sollten die Teilnehmer die Möglichkeit bekommen, hautnah mit neuen Technologien in Kontakt zu kommen. Interessierte Unternehmen melden sich bitte unter hier.
    Data Technology

  • Nach der Entwicklung von R Shiny Applikationen sollen diese in der Regel innerhalb der Unternehmensinfrastruktur für eine größere Anzahl an Benutzern bereitgestellt werden. Hierfür kommen, neben dem kommerziellen Produkt R Shiny Server Pro, auch andere Deployment Szenarien in Betracht. Hierzu zählt insbesondere der Shiny Proxy, der grundlegende Enterprise-Funktionalitäten wie Authentifizierung und Skalierung auf Basis von Open Source Technologien bereitstellt. Im Workshop „R Shiny Applikationen skalieren“ lernst du, wie du deine Shiny Applikation über Shiny Proxy deployen kannst. Hierzu spielen wir praxisorientiert die gesamte End-2-End Strecke, von der Installation über Konfiguration bis hin zum Serving der Shiny App, durch. Hierbei gehen wir auch auf die Themen Authentifizierung, Sicherheit sowie horizontale Skalierung ein. Nach dem Workshop bist du in der Lage, eigenständig Shiny Proxy Server zu installieren und für den Einsatz mit deinen Shiny Apps zu konfigurieren.
    Data Engineering

  • Docker ist eine Technologie, um Applikationen in Form von sog. Containern auszuliefern. Der Container enthält dabei alle Bestandteile, die zur Ausführung der Applikation benötigt werden. Dies erlaubt ein simplifiziertes Deployment sowie eine einfache horizontale Skalierung. Auch für Data Science Anwendungen liefert Docker einen großen Mehrwert. Modelle lassen sich in Containern für die Produktion verpacken und unkompliziert in die Infrastruktur einbetten. In diesem Kurs lernst du die technischen Grundlagen von Docker und erstellst eigenständig einen Docker-Container, der über eine Web-Schnittstelle ein Machine Learning Modell ausliefert. Dabei fokussiert sich der Kurs auf die grundsätzliche Funktionsweise von Docker Containern sowie deren praktische Erstellung. Nach dem Abschluss des Workshops kannst du eigenständig einfache Docker Container erstellen und auf deiner Infrastruktur deployen.
    Data Engineering

  • Das Lösen von komplexeren Machine Learning Fragestellungen erfordert neben einem guten Verständnis grundlegender Machine Learning Ansätze auch ein vertieftes Verständnis von weiterführenden Konzepten und Modellen. Insbesondere die Kombination von einzelnen Modellen im Rahmen von Bagging- oder Boosting-Ansätzen oder die Verwendung von regularisierten Modellen sind wichtige Ansätze, bestehende Modelle weiter zu verbessern. Auch neue algorithmische Entwicklungen wie XGBoosting spielen heute in der Praxis eine wichtige Rolle. In diesem Workshop werden bereits vorhandene Kenntnisse zum Thema Machine Learning theoretisch weiter vertieft und anhand verschiedener Übungsaufgaben gefestigt. Der Fokus liegt darauf, bekannte Algorithmen durch fortgeschrittene Methoden wie Regularisierung oder Ensemble Learning weiter zu verbessern. Insbesondere die Themen Bagging und Boosting von Modellen wird prominent behandelt. Nach dem Workshop kannst du eigenständig Ensemble sowie regularisierte Modelle entwickeln und auf Ihre Machine Learning Fragestellungen anwenden.
    Data Science

  • Reinforcement Learning bildet neben Supervised- und Unsupervised Learning die dritte große Gruppe von Machine Learning Verfahren und wird von AI Wissenschaftlern zur Lösung von KI Fragestellungen eingesetzt. Dabei zeichnet sich Reinforcement Learning insbesondere dadurch aus, dass das Modell kontinuierlich durch die Beobachtung der Auswirkungen seiner Handlungen auf die es umgebende Umwelt lernt. Somit lassen sich Methoden des Reinforcement Learning insbesondere in stochastischen bzw. dynamischen Umgebungen einsetzen, die sich auf Basis bestimmter Aktionen verändern. Im Kontext von Reinforcement Learning werden sehr häufig neuronale Netze bzw. Deep Learning Modelle verwendet, die die nötige Kapazität zur Modellierung der dynamischen Problemstruktur bereitstellen. Im Workshop „Einführung in Deep Reinforcement Learning” erlernst du die grundlegenden Konzepte und Mechanismen von Reinforcement Learning wie Q-Learning bzw. Deep Q-Learning. Dabei liegt der Fokus sowohl auf der Vermittlung theoretischer Konzepte als auch auf der praktischen Implementierung in Python und Open AI-Gym. Nach dem Abschluss des Workshops kannst du eigenständig erste, kleinere Reinforcement Learning Probleme modellieren und in Python umsetzen.
    Data Science

  • Data Science Projekte starten üblicherweise mit der Prototypisierung, einem sogenannten Proof of Concept. Hier werden Ideen anhand von konkreter Daten erprobt und ein mathematischer Ansatz identifiziert. Die Prototypisierung ist geprägt von einer interaktiven Suche nach Lösungsansätzen für Datenaufbereitung, Modellierung und Ergebnisdarstellung. Wie aber kann kreatives, exploratives Arbeiten strukturiert werden? In welchen Schritten geht man vor und welche Ergebnisse sind zu erwarten? Warum muss das Scheitern des Proof of Concepts mit einkalkuliert werden und in welchen Zeiträumen sollte hier gedacht werden? Alle diese Fragen werden in diesem Modul beantwortet.
    Data Strategy

  • Im Rahmen unserer Data Technology Sessions möchten wir Softwareunternehmen mit Fokus auf Data Science, Cloud, Machine Learning und Data Engineering die Möglichkeit geben, interaktiv und persönlich ihr Produkt einem interessierten Teilnehmerkreis vorzustellen. Im Rahmen von bis zu 3-stündigen Slots, an beiden Tagen jeweils am Vormittag und Nachmittag, sollten die Teilnehmer die Möglichkeit bekommen, hautnah mit neuen Technologien in Kontakt zu kommen. Interessierte Unternehmen melden sich bitte unter hier.
    Data Technology

Bestelle jetzt dein Ticket für die Data University 2019

Get Tickets!

Location

Die Data University 2019 findet an der Goethe Universität in Frankfurt am Main statt

Workshop
university

Anfahrt

Goethe Universität
Seminarhaus
Max-Horkheimer-Straße 4
60323 Frankfurt am Main

PDF-Download