Vollzeit (9 Wochen)

In 9 intensiven Wochen wirst du zum Data Scientist. Von Python bis zu Machine Learning lernst du alle Skills, die du für eine erfolgreiche Karriere in einem Data Science Team brauchst.

Jetzt bewerben
In 9 intensiven Wochen bei Le Wagon lernst du alle wichtigen Data Science Skills - von Python zu Machine Learning.
Kursdetails Jetzt bewerben

Some of our upcoming courses in Brüssel can be followed remotely. After you complete your application, the admission manager will be in touch shortly to give you all the necessary information.

Ein einzigartiger Kurs

Unser Data Science Kurs gibt dir in nur 9 Wochen alle Skills, die du für einen erfolgreichen Start in einem Data Science Team brauchst. Von Pandas zu Deep Learning: nach dem Kurs kannst du komplexe Daten überprüfen, bereinigen und daraus wichtige Erkenntnisse ziehen. Du setzt Machine-Learning-Modelle von der ersten Codezeile bis zum Produktionsumfeld ein und arbeitest zusammen in Teams mit den modernsten Tools.

Der Data Science Kurs von Le Wagon gibt dir alle wichtigen Datenskills, die für eine erfolgreiche Karriere als Data Scientist brauchst.
Learn Data Science in 9 weeks
Check out what our alumni have built in 2 weeks

Der Data Science Kursplan

In unserem Kurs lernst du Schritt für Schritt alle wichtigen Skills eines Data Scientists. Du beginnst bei dem grundlegenden Daten-Toolkit in Python und endest mit der vollständigen Implementierung und Bereitstellung von komplexen Machine-Learning-Algorithmen.

  • 0
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

Starte perfekt vorbereitet in den Kurs!

Unser Data Science Kurs ist ziemlich intensiv. Um dir Zeit zu sparen und einen guten Start zu ermöglichen, müssen alle Schüler eine Online-Vorbereitung vor dem Kurs vervollständigen. Diese dauert ungefähr 40 Stunden und behandelt die Grundlagen von Python (Voraussetzung für den Kurs) und einige mathematische Konzepte, die von Data Scientists täglich angewandt werden.

Python für Data Science

Du lernst: Programmieren in Python, den Umgang mit Jupyter Notebook und den Einsatz von Python-Bibliotheken wie Pandas und Numpy zur Erforschung & Analyse von großen Datensätzen. Du sammelst dabei Daten aus verschiedenen Quellen wie CSV-Dateien, SQL-Abfragen zu relationalen Datenbanken, Google Big Query, APIs und Scraping.

Relationale Datenbanken & SQL

Wir befassen uns damit, wie man gute Fragestellungen formuliert und diese mit den richtigen SQL-Abfragen beantwortet. Dieses Modul behandelt zunächst Schema-Architekturen und taucht dann tief in die fortgeschrittene Manipulation von SELECT ein, zur Extraktion nützlicher Informationen aus eigenständigen Datenbanken oder mit einer SQL-Client-Software wie DBeaver.

Datenvisualisierung

Präsentiere deine Daten anschaulich und leicht verständlich mit Visualisierungen in deinem Notebook. Du plottest Data-Frames mithilfe von Python-Bibliotheken wie matplotlib und seaborn und ziehst nützliche Erkenntnisse aus deinen Datensätzen.

Statistik, Wahrscheinlichkeit, Lineare Algebra

In diesem Teil befassen wir uns mit den mathematischen Prinzipien, auf denen alle Bibliotheken und Modelle in diesem Kurs aufbauen. Wir machen uns vertraut mit den grundlegenden Konzepten der Statistik und Wahrscheinlichkeit (Mittelwert, Varianz, Zufallsvariablen, Bayes-Theorem...), sowie mit Matrixrechnungen (ein Kernstück der numerischen Operationen in Bibliotheken wie Pandas und Numpy).

c pulse Statistische Rückschlüsse

Du lernst, wie du ein Python-Repository mit objektorientierter Programmierung strukturierst um deinen Code zu bereinigen und wiederverwendbar zu machen, wie du die Vorbereitungsphase eines großen Datensatzes meisterst, und wie du auf der Grundlage von multivariaten Regressionsmodellen aussagekräftige statistische Ergebnisse identifizierst und interpretierst.

speaker Kommunikation

Data Analysts müssen klar mit einem nicht-technischen Publikum kommunizieren können. Du lernst, wie du deine Ergebnisse wirkungsvoll präsentierst und lässt diese anhand von Kosten-Nutzen-Analyse direkt in strategische Entscheidungen einfließen. Du teilst deinen Fortschritt mit allen Stakeholdern und vergleichst deine Ergebnisse im Team.

Preprocessing & überwachtes Lernen

Als nächstes lernst du, wie du deinen Datensatz mit Preprocessing-Techniken wie der Vektorisierung untersuchst, bereinigst und vorbereitest. Dann machst du dich vertraut mit linearen und logistischen Regressionen, den klassischen Modellen des Supervised Learnings. Du löst Vorhersage- und Klassifikationsaufgaben mit scikit-learn in Python und ziehst dabei Lernalgorithmen wie KNN (k-nearest neighbors) zur Hilfe.

Generalisierung und Overfitting

Implementiere Trainings- und Test-Phasen und vergewissere dich damit, dass dein Modell auch auf unbekannte Daten angewandt werden kann und erfolgreich in der Praxis funktioniert. Du lernst, wie du Overfitting mithilfe von Regularisierungsmethoden verhinderst und die richtige Verlustfunktion auswählst, um die Genauigkeit deines Modells zu stärken.

Performance-Metriken

Du bewertest den Erfolg deines Modells, indem du definierst wonach optimiert werden soll und indem du korrekte Fehlermetriken bestimmst. Du verbesserst die Leistung deines Modells mit Validierungsmethoden wie der Kreuzvalidierung und der Hyperparameter-Abstimmung. Zum Schluss lernst du SVMs (Support-Vektor-Maschinen) kennen, eine leistungsstarke Methode für das überwachte Lernen.

Unüberwachtes Lernen & Fortgeschrittene Methoden

Jetzt kommen wir zum unüberwachten Lernen. Wir implementieren Methoden wie PCA zur Reduzierung der Dimensionalität, sowie Clustering zur Entdeckung von Gruppen in einem Datensatz. Außerdem lernst du Ensemble-Methoden kennen, bei denen mehrere Modelle wie Random Forest oder Gradient Boosting zur Leistungssteigerung kombiniert werden.

Verwaltung von Bildern und Textdaten

Mach dich vertraut mit der Verwaltung hochdimensionaler Variablen und deren Umwandlung in gut handhabbaren Input. Du lernst klassische Preprocessing-Techniken für Bilder wie Normalisierung, Standardisierung und Aufhellung. Dabei wendest du die richtigen Kodierungen an, um deine Textdaten für verschiedene NLP-Aufgaben (Natural Language Processing) vorzubereiten.

Neuronale Netze

In diesem Teil befassen wir uns mit der Architektur neuronaler Netze (Neuronen, Layers, Stacks) und ihren Parametern (Aktivierungsfunktionen, Verlustfunktion, Optimierer). Mit diesen Elementen entwickelst du völlig autonom folgende neuronale Netze: konvolutionäre neuronale Netze (für Bilder), rekurrente neuronale Netze (für Zeitreihen) und Netzwerke für Natural Language Processing (für Text).

Deep Learning mit Keras

Du lernst eine neue Bibliothek namens Keras kennen, ein entwicklerfreundlicher Wrapper über tensorflow (Deep Learning Library von Google). Wir bringen dir die fundamentalen Methoden bei, mit denen du dein ersten Deep-Learning-Modell mit Keras entwickelst.

Computer Vision

Du steigst tiefer in die Computer Vision mit Deep Learning ein, indem du Programme zur Objekterkennung entwickelst. Du setzt fortgeschrittene Methoden wie die Daten-Augmentation ein, um dein Trainingsset durch die Berechnung von Bildstörungen (zufällige Ausschnitte, Intensitätsänderungen, etc.) zu erweitern und die Generalisierung deines Modells zu verbessern.

Machine Learning Pipeline

Du wechselst vom Jupyter Notebook zu einem Code-Editor und lernst, wie du Projekte für eine schnelle und sichere Iteration aufsetzt. Du wandelst dein Machine-Learning-Modell in ein Modell mit einer robusten und skalierbaren Pipeline um und setzt dafür die sklearn-Pipeline mit Encodern und Transformatoren ein.

Machine Learning Workflow mit MLflow

Der komplette Aufbau eines Machine-Learning-Modells erfordert ein hohes Maß an Datenvorbereitung, Experimenten, Iterationen und Anpassungen. Wir zeigen dir, wie du Feature-Engineering und Hyperparameter-Abstimmungen durchführst und das bestmögliche Modell entwickelst. Dafür nutzen wir eine Bibliothek namens MLflow.

Bereitstellung mit Google Cloud Platform

Zum Schluss zeigen wir dir, wie du deinen Code und dein Modell in einem Produktionsumfeld bereitstellst. Mit der Google Cloud AI Plattform kannst du dein Modell trainieren, verpacken und in der ganzen Welt einsetzen. Zu guter Letzt nutzt du ein Docker-Umfeld um deine eigene RESTful Flask API zu implementieren, die du an jede beliebige Front-End-Schnittstelle anschließen kannst.

Schülerprojekte

You'll spend the last two weeks on a group project working on an exciting data science problem you want to solve! As a team, you'll learn how to collaborate efficiently on a real data science project through a common Python repository and the Git flow. You will use a mix of your own datasets (if you have any from your company / non-profit organisation) and open-data repositories (Government initiatives, Kaggle, etc.). It will be a great way to practise all the tools, techniques and methodologies covered in the Data Science Course and will make you realize how autonomous you have become.

Ein typischer Tag

Ein typischer Tag bei Le Wagon

Von Vorlesungen am Morgen zu Vorträgen am Abend - jeder Tag ist spannend!

Vorlesungen
Vorlesungen 09:00 - 10:30

Schnapp dir einen Kaffee und starte den Tag mit einer spannenden und interaktiven Vorlesung, bevor du das Gelernte in die Praxis umsetzt.

Übungen
Übungen 10:30 - 16:30

Gemeinsam mit deinem Buddy für den Tag löst du Programmier-Aufgaben mit der Unterstützung unserer Lehrer.

Yoga
Yoga 16:30 - 17:30

Programmieren lernen kann intensiv sein. Am Nachmittag entspannt ihr euch bei einer gemeinsamen Yoga-Klasse.

Live-Code
Live-Code 17:30 - 19:00

Während der Live-Code-Session sprecht ihr über die heutigen Übungen und bekommt eine Übersicht der anstehenden Themen.

Talks & Workshops
Talks & Workshops 19:00 - 20:30

Lass dich inspirieren und erhalte wertvolle Tipps von erfolgreichen Gründern bei unseren exklusiven Talks & Workshops.

Community & Tools

Netzwerk und Online-Plattform

Unser Data Science Kurs ist erst der Beginn deiner Reise. Nach dem Kurs gehörst du zu einer weltweiten Tech-Community und hast Zugang zu unserer Online-Plattform, wo du immer weiter lernen und wachsen kannst.

Slack icon Slack-Gruppen

Erhalte Tipps und Ratschläge von erfolgreichen Data Scientists & Datenanalysten, Zugang zu exklusiven Jobchancen und Freelance-Stellen von Gründern und Entwicklern.

Online Classroom

Nutze jederzeit nach dem Kurs unsere Online-Lernplattform: hier findest du alle Data Science Vorlesungen, Screencasts, Übungen und Lernkarten.

Tech-Community

Werde ein Teil unserer globaler Community aus 8261 Alumni, die im Bereich Data Science arbeiten, sowie viele weitere Gründer, Entwickler und Produktmanager auf der ganzen Welt.

Icon tutorials Ein weltweites Netzwerk

Unsere unterschiedlichen Kurse gibt es in 39 Städten auf der ganzen Welt: wohin du auch reist, du gehörst zur Le Wagon Community!

Lebenslange Community und Tools
Career Services

Finde einen Data Science Job bei den besten Tech-Firmen

Nach dem Ende des Programmierkurses profitierst du von unserer großartigen Karrierehilfe. Wir vernetzen dich mit den besten Recruitern und bringen dich mit relevanten Alumni in Kontakt.

microsoftwordCreated with Sketch. Career Playbook

Nutze unseren Alumni-Guide und starte erfolgreich in deine neue Data Science Karriere: bau dein Tech-Portfolio weiter aus, finde deinen Traumjob und lass dich von unseren 8261 Alumni unterstützen.

myspaceCreated with Sketch. Karriere Events

Mach mit bei unseren vielen Jobmessen und Networking Events, triff die besten Tech-Firmen und erhalte Angebote von Recruitern für spannende Datenjobs.

buymeacoffeeCreated with Sketch. Alumni Coaching Sessions

Unsere Alumni sind ständig in Kontakt mit neuen Teilnehmern: sie erklären dir, wie sie ihre Jobs als Data Scientists, Datenanalysten und Dateningenieure gefunden haben.

wechatCreated with Sketch. Karriere-Intros

Unsere lokalen Teams sind regelmäßig in Kontakt mit unseren Alumni und Recruiting-Partnern und vernetzen dich jederzeit mit relevanten Personen.

Die Alumni unseres Programmierkurses arbeiten bei den besten Firmen
Hiring Partners

Hier arbeiten unsere Alumni

Die besten Firmen arbeiten mit Le Wagon zusammen und stellen unsere Alumni als Data Scientists, Datenanalysten und Dateningenieure ein.

Frichti 1 Alumni eingestellt
Doctolib 9 Alumni eingestellt
+7
Google 4 Alumni eingestellt
+2
Getaround 6 Alumni eingestellt
+4
Aircall 3 Alumni eingestellt
+1
ContentSquare 1 Alumni eingestellt

Willst du mehr lernen?

Der nächste Vollzeit data science kurs in Brüssel beginnt am 11 Jan, 2021