Data Analytics 2017 | Nürnberg

Data Analytics 2017 | Nürnberg

Konferenz und Lab

Daten sind die Basis für verbesserte Produkte, Prozesse und neue Geschäftsmodelle. Entgegen enthusiastischer Hype-Botschaften ist es aber oft diffizil, aus Daten echten Nutzen zu extrahieren. Wenn Sie als Geschäftsführer, Entscheider, Business Developer oder Experte Antworten auf folgende Fragen zur Datenanalyse suchen, sind Sie hier richtig:

  • Wie kann ich wertvolle Daten erkennen und welche Werkzeuge helfen dabei?
  • Welche Fähigkeiten brauchen Data Analysten in meinem Unternehmen und wie gewinne ich Data Scientists?
  • Best Practice: Welche Ansätze haben bereits funktioniert?
  • Wie könnte eine Data Analytics Strategie für mein Unternehmen aussehen?

Ziel der Data Analytics 2017 ist es, Ihnen den Weg zur eigenen Data-Analytics-Strategie zu ebnen, relevante Erfahrungen und Erkenntnisse zu teilen und Sie mit den besten Partnern zu vernetzen.

Initial Dialog Data Analytics – Hype oder Chance?

– Dr. Lars Meyer-Pries, Mitglied der Geschäftsleitung, DATEV eG
– Kai Friedrich, CEO Consorsbank
– Alexander. v. Stülpnagel, dimension2 economics & philosophy consult GmbH
– Dirk Zetzsche, EXASOL AG
– Jürgen Amedick, SIEMENS AG

Best Practice – Vorteile, Anwendungen Beispiele:

  • Vortrag 1 – Stefan Hamm, CEO, adorsys Gmbh & Co KG
    Social Scoring hat sich in der Finanzindustrie schon etabliert. Vermehrt wollen auch Versicherungsunternehmen von diesem digitalen Mehrwert profitieren, um neue Produkte auf dem Markt zu bringen. Durch Analyse der Nutzerdaten und Social Scoring lassen sich Produkte neu denken, konzipieren, umsetzen und die Wertschöpfung am Ende erweitern.

 

  • Vortrag 2 – Martin Kiechle, Head of Technology, Cobrainer GmbH
    Kürzere Innovationszyklen und wachsende technologische Komplexität erfordern eine effiziente Nutzung vorhandener Expertise in Unternehmen. Verteilte Information zu Mitarbeiter- und Projektexpertise begrenzt in der Realität jedoch den Zugriff auf vorhandene Ressourcen. Eine Lösung zur automatischen semantischen Kartierung von Expertise- und Technologiekonzepten aus vorhandenen Mitarbeiter- und Projektdaten kann helfen, relevante Ressourcen schneller zu finden und umfassender zu nutzen.“

 

  • Vortrag 3 – Frank Egersdörfer, CEO, COSMINO AG
    Der Druck, die Produktion nachhaltig effizienter zu machen wächst bei den Fertigungsunternehmen stetig. Zudem werden immer mehr Daten in den Unternehmen generiert, jedoch für die Effizienzsteigerung, insbesondere in Produktionsprozessen, nur selten konsequent genutzt. Anhand von Projektbeispielen wird die Vorgehensweise in Datenanalyse- und Reportingprojekten sowie verschiedene Lösungsansätze gezeigt.

 

  • Vortrag 4 – Marcus Trügler, Oliver Schreyer, Sales Manager, EXASOL AG
    Welche Technologien führen bei aktuellen Data Analytics Projekten am besten zum Ziel? Unternehmen nutzten heute meist klassische DWH-Architekturen und Datenbanken. Doch mit der Heterogenität an Daten und der Notwendigkeit diese in kürzester Zeit auszuwerten, stoßen herkömmliche Technologien an ihre Grenzen. Wie begegnet man diesen neuen Anforderungen am effizientesten? Anhand von drei regionalen Kundenbeispielen verschiedener Branchen werden Möglichkeiten aufgezeigt.

 

  • Vortrag 5 – Dr. Ing. Christopher Mutschler, Chief Sientist, Fraunhofer IIS
    „Maschinelles Lernen“ gewinnt in vielerlei Anwendungsbereichen zunehmend an Bedeutung. Der Vortrag vermittelt die zugrundeliegenden Konzepte und zeigt anhand von praxisorientierten Beispielen die Anwendung nicht nur der klassischen Methoden des unüberwachten (z.B. Clustering) und des überwachten (z.B. Deep Learning) Lernens, sondern auch des zunehmend relevanter werdenden Themenkomplexes des verstärkenden Lernens (engl. Reinforcement Learning).

 

  • Vortrag 6 – Bernd Hustert, Geschäftsführer, 3D CAD GmbH
    Verschiedene Softwarewerkzeuge erzeugen unterschiedliche, teilweise redundante Information. Alte und neue digitale Daten und Modelle sollen aber in echtzeit analysiert werden können, um aussagefähige kumulierte Fakten zu bekommen. Änderungen, Revisionierungen sollen auf Dauer die gleiche Datenqualität liefern. Wie man diesen Anforderungen begegnen kann, wird am Beispiel gezeigt.

 

  • Vortrag 7 – Rainer Unsöld, Vorstand, Woodmark Consulting AG
    In Zukunft wird es insbesondere in der Industrie immer mehr Daten verschiedener Quellen geben. Wie können aus diesen Daten Mehrwerte erzeugt und wie kann in Zukunft mit den wachsenden Datenmengen Schritt gehalten werden? Der Vortrag verdeutlicht am Beispiel aus den Bereichen Automotiv, Industrie, Medizin, Design und IT, welche Vorteile anhand datengetriebener Analysen erreicht werden konnte und welcher Aufwand dafür nötig ist.

 

  • Vortrag 8 – Florian Schleinkofer, Service Operation Manager Energy Analytics, SIEMENS AG
    Die MindSphere bietet eine kostengünstige und skalierbare Cloud-„Platform as a Service“ (PaaS) für die Entwicklung von Applikationen an. Die als offenes Betriebssystem für das Internet der Dinge konzipierte Plattform ermöglicht es, die Leistungsfähigkeit von Anlagen durch das Erfassen und die Analyse großer Mengen von Produktionsdaten zu verbessern. Es werden aus den Bereichen vorausschauende Wartung, Energiedaten-Management oder Ressourcenoptimierung gezeigt.

 

  • Vortrag 9 – Dr. Ulrich Lettau, CEO, iba AG
    Zukünftig werden komplexere Produkte benötigt, die in sehr kleinen Losgrößen wirtschaftlich und mit sehr hoher Qualität gefertigt werden müssen. Die dabei entstehende Komplexität der Fertigungstechnik kann über den gesamten Lebenszyklus einer Anlage nur über datenbasierte Ansätze beherrscht werden. Im Vortrag wird ein vierstufiges Vorgehensmodell vorgestellt, das es ermöglicht, Produktions-, Prozess- und Qualitätsdaten auf einer digitalen Plattform bereit zu stellen.

Strategieworkshops – Vorgehensweisen validieren, Anregungen für Know-how-Aufbau und Fachkräfterekruiting gewinnen:

  • Workshop 1 – Dr. habil. Robert Hable, Forschungsleiter Big Data Analytics, Technische Hochschule Deggendorf, Valentin Rupar, Geschäftsführer, NEXT Beacon GmbH
    Datenanalysten: Profil und Recruitment
    Die Suche und Auswahl von Top-Datenexperten und -Analytikern wird schwieriger und gleichzeitig der Stellenwert dieser Funktion in allen Unternehmen immer wichtiger. Die Suche und Auswahl geeigneter Manager und Fachkräfte ist deswegen große Herausforderung. Fragen wie „Welche Daten habe ich?“, „Wie weit bin ich in der Infrastruktur?“ oder „Welche Use Cases leiten sich aus dem operativen Geschäft ab?“ stellen erfahrene Analytiker gerne. Der Workshop beantwortet die Frage: „Wie kann Ihr Unternehmen ein für Data Scientists attraktiver Arbeitgeber werden?“

 

  • Workshop 2 – Herr Christopher Hetz, Software AG
    Best Practice-Lösung/Referenz aus der Praxis, Möglichkeiten der Software AG-Plattform für IoT

 

  • Workshop 3 – Dr. Benno Schmitzer, CEO, KURZ digital solutions GmbH & Co. KG
    Digitale Produkte hinterlassen Daten – schon beim Vertrieb: die Analyse beginnt im eigenen Unternehmen.
    Dekorative Folien und Sicherheitsprodukte wie z.B. Hologramme sind auf Produkten wie z.B. Kosmetika allgegenwärtig. Für den Produzenten LEONHARD KURZ wurde eine weltweite Datenerfassungs-Plattform entwickelt, die Geolokationsdaten, technische Daten, Kundendaten, Marketinginformationen, Demo-Anwendungen und Vertriebsdaten erfasst, für Business-Prozesse analysiert, aufbereitet und weitergibt. Der Impulsvortrag fokussiert sich auf die Entstehung und Analyse der Vertriebsdaten sowie daraus abzuleitender Maßnahmen am Beispiel.

Labs – Werkzeuge zur Datenanalyse praxisorientiert erproben:

  • Lab 1 – Adrin Jalali, Data Science Consultant, Ancud IT-Beratung GmbH
    Deep Learning sind state-of-art Algorithmen, welche auf Bilder, Videos, Texten und Audio trainiert werden können. Sie bestehen aus mehrschichtigen neuronalen Netzwerken und werden zur Klassifikationen von Daten als Methode beim unüberwachten Lernen im Bereich Machine Learning oder als Regressionsanalyse eingesetzt. Damit können automatisch Einflussfaktoren bestimmt werden und ein Modell zu deren Vorhersage trainiert werden. Deep Learning Algorithmen werden sehr erfolgreich eingesetzt, um Kreditkartenbetrug aufzudecken, Sensordaten für Prognosen zu verwenden, aber auch als Empfehlungssysteme für Webseiten von E-Commerce Unternehmen. Das Lab bietet einen Überblick zum Thema Deep Learning.

 

  • Lab 2 – Christian Kollwitz, Wissenschaftlicher Mitarbeiter, TU Chemnitz
    Unter dem Titel Hands-on-Analytics: Text Mining zur Identifizierung von Innovationsherausforderungen im Elektromobilitätsumfeld werden Sie auf eine Reise mitgenommen, auf der unstrukturierte bzw. semi-strukturierte Daten aus Social Media oder Online-News-Artikeln analysiert und zu einem Topic Modeling verdichtet werden. Verschiedenen Facetten der Elektromobilität (z.B. Lademöglichkeiten, Reichweitenproblematik, Kosten, etc.) lassen sich so systematisieren und visualisieren. Daraus lassen sich Erkenntnisse ableiten, welche spezifischen Herausforderungen angegangen werden müssen und welche Aspekte in der Wahrnehmung der Konsumenten/Öffentlichkeit besonders wichtig sind. Der Kontext der Elektromobilität dient dabei vor allem der Veranschaulichung, das Vorgehen ist prinzipiell auch in andere Domänen anwendbar. Es werden keine besonderen Vorkenntnisse benötigt.

 

  • Lab 3 – Joerg Blumtritt, Geschäftsführer, Datarella
    Wenn Fachabteilungen nach Big Data fragen und dies über die bestehende Business Intelligence hinausgeht stellen sich neue Herausforderungen. Das Internet of Things, das Industrial Internet oder auch Industrie 4.0 erzeugen viele Daten, die es aufzufangen, sicher abzuspeichern, aufzubereiten, zu analysieren und in Anwendungen umzusetzen gilt. Dieser datengetriebene Prozess verändert die Wertschöpfung in Unternehmen. Beispiele aus der Praxis zeigen, wie dies umgesetzt werden kann.