Vollzeit (9 Wochen)
Coming soon

In 9 intensiven Wochen wirst du zum Data Scientist. Du lernst alles von Python bis zu Machine Learning und bekommst alle Skills, die du für eine erfolgreiche Karriere in einem Data Science Team brauchst.

In 9 intensiven Wochen bei Le Wagon lernst du alle wichtigen Data Science Skills - von Python zu Machine Learning.
Kursdetails

Mach mit bei einemeinzigartigen Kurs

Unser Data Science Kurs gibt dir in nur 9 Wochen alle Skills, die du für einen erfolgreichen Start in einem Data Science Team brauchst.Von Pandas zu Deep Learning: nach dem Kurs kannst du komplexe Daten überprüfen, bereinigen und daraus nützliche Erkenntnisse ziehen. Du setzt Machine-Learning-Modelle von der ersten Codezeile bis zum Produktionsumfeld ein und arbeitest in Teams mit den modernsten Tools.

Der Data Science Kurs von Le Wagon gibt dir alle wichtigen Datenskills, die für eine erfolgreiche Karriere als Data Scientist brauchst.

Der Kursplan für unseren Data Science Kurs

In unserem Kurs lernst du Schritt für Schritt alle wichtigen Skills eines Data Scientists. Du beginnst bei dem grundlegenden Daten-Toolkit in Python und endest mit der vollständigen Implementierung und Bereitstellung von komplexen Machine Learning Algorithmen.

  • 0
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

Starte gut vorbereitet in das Bootcamp!

Unser Data Science Kurs ist ziemlich intensiv. Um Zeit zu sparen und allen Teilnehmern einen erfolgreichen Start zu ermöglichen, müssen unsere Schüler eine Vorbereitungsarbeit vor dem Kurs vervollständigen. Die Vorbereitung dauert ungefähr 40 Stunden und behandelt die Grundlagen von Python (Voraussetzung für den Kurs), sowie einige mathematische Konzepte, die von Datenwissenschaftlern täglich angewandt werden.

Python für Data Science

Lerne Programmieren in Python, wie du mit dem Jupyter Notebook arbeitest und nützliche Python-Bibliotheken wie Pandas und NumPy einsetzt, um große Datenmengen zu analysieren. Sammle Daten aus unterschiedlichen Quellen wie CSV-Dateien, SQL-Abfragen auf relationalen Datenbanken, Google Big Query, APIs und Web-Scraping.

Relationale Datenbanken & SQL

Lerne, wie du gute Fragestellungen formulierst und diese mit den richtigen SQL-Abfragen beantwortest. Dieses Modul behandelt die Schema-Architekturen und taucht dann tief in die fortgeschrittene Manipulation von SELECT ein, zur Extraktion von nützlichen Informationen aus einer eigenständigen Datenbank oder mit einer SQL-Client-Software wie DBeaver.

Datenvisualisierung

Präsentiere deine Daten ansehnlicher und verständlicher indem du Datenvisualisierungen in deinem Notebook einsetzt. Lerne, wie du Data Frames mit Hilfe von Python-Bibliotheken wie matplotlib und seaborn plottest und deine Daten in nützliche Erkenntnisse umwandelst.

Statistik, Wahrscheinlichkeiten, Lineare Algebra

Lerne die zugrundeliegende Mathematik hinter allen Bibliotheken und Modellen, die in unserem Kurs eingesetzt werden. Mach dich vertraut mit grundlegenden Konzepten der Statistik und Wahrscheinlichkeiten (Mittelwert, Varianz, Zufallsvariablen, Bayes-Theorem usw.) und mit Matrixberechnungen, ein Kernstück der numerischen Operationen in Bibliotheken wie Pandas und Numpy.

Preprocessing und Supervised Learning

Du lernst wie du deinen Datensatz mit Preprocessing-Techniken wie Vektorisierungen untersuchst, bereinigst und vorbereitest und machst dich vertraut mit linearen und logistischen Regressionen, den klassischen Modellen des Supervised Learnings. Du löst Vorhersage- und Klassifikationsaufgaben mit scikit-learn in Python und ziehst dabei Lernalgorithmen wie KNN (k-nearest neighbors) zur Hilfe.

Generalization und Overfitting

Implementiere Trainings- und Test-Phasen um dich zu vergewissern, dass dein Modell auch auf ungesehene Daten angewandt und erfolgreich in einem Produktionsumfeld eingesetzt werden kann. Lerne, wie du Überanpassungen mit Hilfe von Regularisierungsmethoden verhinderst und wie du die richtige Verlustfunktion wählst, um die Genauigkeit deines Modells zu verbessern.

Performance-Metriken

Bewerte den Erfolg deines Modells, indem du definierst wonach optimiert werden soll und indem du die richtigen Fehlermetriken festlegst. Du verbesserst die Leistung deines Modells mit Validierungsmethoden wie Kreuzvalidierung oder Hyperparameter-Tuning und lernst zum Schluss SVMs (Support Vector Machines) kennen, eine leistungsstarke Methode fürs überwachte Lernen.

Unüberwachtes Lernen & fortgeschrittene Methoden

Jetzt wird es Zeit, in das unüberwachte Lernen einzusteigen und Methoden wie PCA anzuwenden, zur Reduktion der Dimensionalität oder Clustering zur Entdeckung von Gruppen in einem Datensatz. Außerdem lernst du Ensemble-Methoden kennen, die andere Modelle wie Random Forest oder Gradient Boosting miteinander kombinieren.

Machine Learning Pipeline

Vom Jupyter Notebook geht es weiter zum Code Editor. Du lernst, wie du ein Machine Learning Projekt richtig aufsetzt, um es schnell und sicher zu iterieren. Du wandelst deine Machine Learning Modelle in eine robuste und skalierbare Pipeline um und setzt dafür die sklearn-Pipeline mit Encodern und Transformatoren ein.

Machine Learning Workflow mit MLflow

Der komplette Aufbau eines maschinellen Lernmodells erfordert eine große Menge an Datenvorbereitung, Experimenten, Iterationen und Anpassungen. Wir bringen dir bei, wie du Feature-Engineering und Hyperparameter-Tuning durchführst und robuste Modelle erstellst. Dafür werden wir eine Bibliothek namens MLflow nutzen.

Bereitstellung in einem Produktionsumfeld mit der Google Cloud Plattform

Zum Schluss zeigen wir dir, wie du deinen Code und dein Modell in einem Produktionsumfeld bereitstellst. Mit der Google Cloud AI Plattform und Airflow kannst du dein Modell trainieren, verpacken und in der ganzen Welt einsetzen.

Verwalten von Bildern und Textdaten

Mach dich vertraut mit der Verwaltung hochdimensionaler Variablen und deren Umwandlung in gut handhabbaren Input. Du lernst klassische Preprocessing-Techniken für Bilder wie Normalisierung, Standardisierung und Aufhellung. Du wendest die richtigen Kodierungen an, um deine Textdaten für verschiedene NLP-Aufgaben (Natural Language Processing) vorzubereiten.

Neuronale Netze

Mach dich vertraut mit der Architektur neuronaler Netze (Neuronen, Schichten, Stacks) und ihrer Parameter (Aktivierungsfunktionen, Verlustfunktion, Optimierer). Du lernst, wie du selbstständig eigene Netzwerke entwickelst, wie zum Beispiel Convolutional Neural Networks (für Bilder), Recurrent Neural Networks (für Zeitreihen) und Natural Language Processing networks (für Text).

Deep Learning mit Keras

Entdecke eine neue Bibliothek namens Keras, ein entwicklerfreundlicher Wrapper über Tensorflow, einer Deep Learning Bibliothek von Google. Wir bringen dir die fundamentalen Methoden bei, mit denen du dein ersten Deep Learning Modell mit Keras entwickelst.

Computer Vision

Go further into computer vision with Deep Learning building networks for object detection and recognition. Implement advanced techniques like data augmentation to augment your training set by computing image perturbations (random crops, intensity changes etc) in order to improve your model's generalization.

E-Commerce-Projekt

Jetzt ist es Zeit für eine Herausforderung aus dem echten Leben: "Wie kannst ich als Data Scientist bei einer führenden E-Commerce-Firma nützliche Vorschläge identifizieren, um die Performance der Webseite zu verbessern?" Du lernst, wie du ein Python-Repository mit objektorientierter Programmierung strukturierst um effizienter mit anderen zusammenzuarbeiten, wie du die Datenvorbereitungsphase einer großen Datenmenge meisterst, wie du statistische Ergebnisse schnell generierst und analysierst, bevor du fortgeschrittene Vorhersagen triffst, und wie du deine Ergebnisse einer nicht-technischen Publikum anhand von Kosten-Nutzen-Analysen erklärst. Ihr arbeitet in Gruppen von 3-4 Teilnehmern und teilt euren Fortschritt und eure Ergebnisse untereinander.

Teilnehmerprojekte

Nach diesem einwöchigen E-Commerce Projekt, arbeitet ihr die nächsten zwei Wochen als Gruppe an einer spannendenden Data Science Herausforderung zusammen! Ihr nutzt eine Mischung euren eigenen Datensets (wenn ihr eine eigene Firma oder ein NGO habt) und öffentliche Datenquellen (Regierungsinitiativen, Kaggle, etc.). Dieses Gruppenprojekt ist eine großartige Chance, alle Tools, Techniken und Methoden aus dem Kurs anzuwenden und wird dir zeigen, wie eigenständig du bereits arbeiten kannst.

Ein typischer Tag bei Le Wagon

Von Vorlesungen am Morgen zu Vorträgen am Abend - jeder Tag ist spannend!

  • 09:00 Uhr Vorlesungen
  • 10:30 Uhr Challenges
  • 16:30 Uhr Yoga
  • 17:30 Uhr Live-Code
  • 19:00 Uhr Events 20:30 Uhr
Vorlesungen
Vorlesungen 09:00 - 10:30

Schnapp dir einen Kaffee und starte den Tag mit einer spannenden und interaktiven Vorlesung, bevor du das Gelernte in die Praxis umsetzt.

Übungen
Übungen 10:30 - 16:30

Gemeinsam mit deinem Buddy für den Tag löst du Programmier-Aufgaben mit der Unterstützung unserer Lehrer.

Yoga
Yoga 16:30 - 17:30

Programmieren lernen kann intensiv sein. Am Nachmittag entspannt ihr euch bei einer gemeinsamen Yoga-Klasse.

Live-Code
Live-Code 17:30 - 19:00

Während der Live-Code-Session sprecht ihr über die heutigen Übungen und bekommt eine Übersicht der anstehenden Themen.

Talks & Workshops
Talks & Workshops 19:00 - 20:30

Lass dich inspirieren und erhalte wertvolle Tipps von erfolgreichen Gründern bei unseren exklusiven Talks & Workshops.

Netzwerk und Online-Plattform

Unser Data Science Kurs ist erst der Beginn deiner Reise. Nach dem Abschluss gehörst du zu einer weltweiten Tech-Community und hast Zugang zu unserer Online-Plattform, wo du immer weiter lernen und wachsen kannst.

Slack icon Slack-Gruppen

Erhalte Tipps und Ratschläge von erfolgreichen Data Scientists & Datenanalysten, Zugang zu exklusiven Jobchancen und Freelance-Stellen von Gründern und Entwicklern.

Online Classroom

Nutze jederzeit nach dem Kurs unsere Online-Lernplattform: hier findest du alle Data Science Vorlesungen, Screencasts, Übungen und Lernkarten.

Tech-Community

Benefit from our global community of 6881 alumni working in data-related roles, but also entrepreneurs, developers and product managers all over the world.

Icon tutorials Ein weltweites Netzwerk

Unsere unterschiedlichen Kurse gibt es in 38 Städten auf der ganzen Welt: wohin du auch reist, du gehörst zur Le Wagon Community!

Lebenslange Community und Tools

Finde einen Data Science Job bei den besten Tech-Firmen

Nach dem Ende des Programmierkurses profitierst du von unserer großartigen Karrierehilfe. Wir vernetzen dich mit den besten Recruitern und bringen dich mit relevanten Alumni in Kontakt.

microsoftwordCreated with Sketch. Career Playbook

Nutze unseren Alumni-Guide und starte erfolgreich in deine neue Data Science Karriere: bau dein Tech-Portfolio weiter aus, finde deinen Traumjob und lass dich von unseren 6881 Alumni unterstützen.

myspaceCreated with Sketch. Karriere Events

Mach mit bei unseren Jobmessen und Networking Events, triff die besten Tech-Firmen und erhalte Angebote von Recruitern für spannende Datenjobs.

buymeacoffeeCreated with Sketch. Alumni Coaching Sessions

Unsere Data Science Alumni sind ständig in Kontakt mit neuen Teilnehmern: sie erklären dir, wie sie ihre Jobs als Data Scientists, Datenanalysten und Dateningenieure gefunden haben.

wechatCreated with Sketch. Karriere-Intros

Our local teams know their alumni and hiring partners, what they are up to and what they are looking for. They introduce you to the right people depending on your goal.

Die Absolventen unseres Programmierkurses werden von den besten Firmen eingestellt.

Hier arbeiten unsere Alumni

Die besten Firmen arbeiten mit Le Wagon zusammen und stellen unsere Alumni als Data Scientists, Datenanalysten und Dateningenieure ein.

Getaround 6 Alumni eingestellt
Lou Welgryn Jean Anquetil
+4
ContentSquare 1 Alumni eingestellt
Jerome Vivier
Aircall 3 Alumni eingestellt
Rhea Akiki Thomas Deschamps Manou Febvret
Doctolib 9 Alumni eingestellt
Arthur Fulconis Renan Le Gall
+7
Google 4 Alumni eingestellt
Jeroen Rutten Adrien De Villoutreys
+2
Frichti 1 Alumni eingestellt
Tanguy Foujols

Willst du mehr lernen?