Teilzeit (24 Wochen)

In 24 intensiven Wochen in Tokyo wirst du zum Data Scientist. Von Python bis zum Machine Learning lernst du alle Skills, die du für eine erfolgreiche Karriere in einem Data Science Team brauchst.

Jetzt bewerben
In 24 Teilzeitwochen bei Le Wagon Tokyo lernst du alle wichtigen Data Science Skills - von Python bis zu Machine Learning.
Kursdetails Jetzt bewerben

Bei bestimmten Kursen in Tokyo kannst du auch remote mitmachen. Nach deiner Bewerbung werden sich unsere Admission Manager schnell bei dir melden und dir alle wichtigen Informationen geben.

Ein einzigartiger Kurs

In unserem Data Science Teilzeitkurs in Tokyo lernst du alle wichtigen Skills, um erfolgreich in einem Data Science Team zu arbeiten - in 24 Wochen an Samstagen und manchen Wochenabenden. Von Pandas zu Deep Learning: nach dem Kurs kannst du komplexe Datensätze erforschen, bereinigen und daraus wichtige Erkenntnisse ziehen. Du setzt Machine-Learning-Modelle von der ersten Codezeile bis zum Produktionsumfeld ein und arbeitest zusammen in Teams mit den modernsten Tools.

Der Data Science Kurs von Le Wagon gibt dir alle wichtigen Datenskills, die für eine erfolgreiche Karriere als Data Scientist brauchst.
Lerne Data Science in 9 Wochen
Schau dir an, was unsere Alumni in nur 2 Wochen entwickelt haben

Unser Data Science Kursplan

Unser Data Science Kurs ist so strukturiert, dass du Schritt für Schritt lernst und alles gut verstehst - vom grundlegenden Toolkit für Python, zur Implementierung von Machine-Learning-Modellen in einem Produktionsumfeld.

  • 0
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

Starte perfekt vorbereitet in den Kurs!

Unser Data Science Kurs ist ziemlich intensiv. Um Zeit zu sparen und allen einen guten Start zu ermöglichen, müssen alle Teilnehmer eine Online-Vorbereitungsarbeit vor dem Kurs vervollständigen. Diese dauert ungefähr 40 Stunden und behandelt die Grundlagen von Python (Voraussetzung für den Kurs) und einige mathematische Konzepte, die Data Scientists täglich anwenden.

Python für Data Science

Du lernst: Programmieren in Python, den Umgang mit Jupyter Notebook und den Einsatz von Python-Bibliotheken wie Pandas und Numpy zur Erforschung & Analyse von großen Datensätzen. Du sammelst dabei Daten aus verschiedenen Quellen wie CSV-Dateien, SQL-Abfragen zu relationalen Datenbanken, Google Big Query, APIs und Scraping.

Relationale Datenbanken & SQL

Wir befassen uns damit, wie man gute Fragestellungen formuliert und diese mit den richtigen SQL-Abfragen beantwortet. Dieses Modul behandelt zunächst Schema-Architekturen und taucht dann tief in die fortgeschrittene Manipulation von SELECT ein, zur Extraktion nützlicher Informationen aus eigenständigen Datenbanken oder mit einer SQL-Client-Software wie DBeaver.

Datenvisualisierung

Präsentiere deine Daten anschaulich und leicht verständlich mit Visualisierungen in deinem Notebook. Du plottest Data-Frames mithilfe von Python-Bibliotheken wie matplotlib und seaborn und ziehst nützliche Erkenntnisse aus deinen Datensätzen.

Statistik, Wahrscheinlichkeit, Lineare Algebra

In diesem Teil befassen wir uns mit den mathematischen Prinzipien, auf denen alle Bibliotheken und Modelle in diesem Kurs aufbauen. Wir machen uns vertraut mit den grundlegenden Konzepten der Statistik und Wahrscheinlichkeit (Mittelwert, Varianz, Zufallsvariablen, Bayes-Theorem...), sowie mit Matrixrechnungen (ein Kernstück der numerischen Operationen in Bibliotheken wie Pandas und Numpy).

c pulse Statistische Rückschlüsse

Du lernst, wie du ein Python-Repository mit objektorientierter Programmierung strukturierst um deinen Code zu bereinigen und wiederverwendbar zu machen, wie du die Vorbereitungsphase eines großen Datensatzes meisterst, und wie du auf der Grundlage von multivariaten Regressionsmodellen aussagekräftige statistische Ergebnisse identifizierst und interpretierst.

speaker Kommunikation

Data Analysts müssen klar mit einem nicht-technischen Publikum kommunizieren können. Du lernst, wie du deine Ergebnisse wirkungsvoll präsentierst und lässt diese anhand von Kosten-Nutzen-Analyse direkt in strategische Entscheidungen einfließen. Du teilst deinen Fortschritt mit allen Stakeholdern und vergleichst deine Ergebnisse im Team.

Preprocessing & überwachtes Lernen

Als nächstes lernst du, wie du deinen Datensatz mit Preprocessing-Techniken wie der Vektorisierung untersuchst, bereinigst und vorbereitest. Dann machst du dich vertraut mit linearen und logistischen Regressionen, den klassischen Modellen des Supervised Learnings. Du löst Vorhersage- und Klassifikationsaufgaben mit scikit-learn in Python und ziehst dabei Lernalgorithmen wie KNN (k-nearest neighbors) zur Hilfe.

Generalisierung und Overfitting

Implementiere Trainings- und Test-Phasen und vergewissere dich damit, dass dein Modell auch auf unbekannte Daten angewandt werden kann und erfolgreich in der Praxis funktioniert. Du lernst, wie du Overfitting mithilfe von Regularisierungsmethoden verhinderst und die richtige Verlustfunktion auswählst, um die Genauigkeit deines Modells zu stärken.

Performance-Metriken

Du bewertest den Erfolg deines Modells, indem du definierst wonach optimiert werden soll und indem du korrekte Fehlermetriken bestimmst. Du verbesserst die Leistung deines Modells mit Validierungsmethoden wie der Kreuzvalidierung und der Hyperparameter-Abstimmung. Zum Schluss lernst du SVMs (Support-Vektor-Maschinen) kennen, eine leistungsstarke Methode für das überwachte Lernen.

Unüberwachtes Lernen & Fortgeschrittene Methoden

Jetzt kommen wir zum unüberwachten Lernen. Wir implementieren Methoden wie PCA zur Reduzierung der Dimensionalität, sowie Clustering zur Entdeckung von Gruppen in einem Datensatz. Außerdem lernst du Ensemble-Methoden kennen, bei denen mehrere Modelle wie Random Forest oder Gradient Boosting zur Leistungssteigerung kombiniert werden.

Neuronale Netze

In diesem Teil lernst du die Magie des Deep Learning kennen. Wir befassen wir uns mit der Architektur neuronaler Netze (Neuronen, Layers, Stacks) und ihren Parametern (Aktivierungsfunktionen, Verlustfunktion, Optimierer). Mit diesen Elementen entwickelst du neuronale Netze komplett eigenständig (vor allem für Bilder, Zeiten und Texte) und lernst dabei alle wichtigen Methoden und Tricks kennen, die das Deep Learning ausmachen.

Computer Vision

Du steigst tiefer in die Computer Vision ein und arbeitest mit konvolutionären neuronalen Netzen, mit denen du das meiste aus Bildern herausholst. Du setzt Daten-Augmentation ein, verbesserst die Generalisierung deines Modells und arbeitest mit fortgeschrittenen Methoden und modernen Architekturen wie Transfer-Lernmethoden.

Zeitreihen & Textdaten

Mach dich vertraut mit der Verwaltung von Daten und Texten (Wortfolgen), indem du sie in entsprechende Eingaben umwandelst. Du setzt rekursive neuronale Netzwerken ein, um zukünftige Werte vorherzusagen und eine natürliche Sprachverarbeitung durchzuführen.

Deep Learning leicht gemacht

Entdecke die Keras Deep Learning Bibliothek, mit der du einfache Prototypen erstellen kannst und gleichzeitig die Flexibilität hast, dein neuronales Netz genau zu justieren. Außerdem setzt du Google Colab ein, um Rechenzeiten dank dezidierter GPUs deutlich zu beschleunigen.

Machine Learning Pipeline

Du wechselst vom Jupyter Notebook zu einem Code-Editor und lernst, wie du Projekte für eine schnelle und sichere Iteration aufsetzt. Du wandelst dein Machine-Learning-Modell in ein Modell mit einer robusten und skalierbaren Pipeline um und setzt dafür die sklearn-Pipeline mit Encodern und Transformatoren ein.

Machine Learning Workflow mit MLflow

Der komplette Aufbau eines Machine-Learning-Modells erfordert ein hohes Maß an Datenvorbereitung, Experimenten, Iterationen und Anpassungen. Wir zeigen dir, wie du Feature-Engineering und Hyperparameter-Abstimmungen durchführst und das bestmögliche Modell entwickelst. Dafür nutzen wir eine Bibliothek namens MLflow.

Bereitstellung mit Google Cloud Platform

Zum Schluss zeigen wir dir, wie du deinen Code und dein Modell in einem Produktionsumfeld bereitstellst. Mit der Google Cloud AI Plattform kannst du dein Modell trainieren, verpacken und in der ganzen Welt einsetzen. Außerdem nutzt du ein Docker-Umfeld, um deine eigene RESTful Flask API zu implementieren, die du an jede Front-End-Schnittstelle anschließen kannst.

Schülerprojekte

Ihr verbringt die letzten zwei Wochen als Gruppe und arbeitet gemeinsam an einer spannenden Data Science Herausforderung! Ihr lernt, wie ihr effizient als Team mit einem gemeinsamen Python Repository und Git flow kollaboriert. Dabei nutzt ihr eine Mischung aus eigenen Datensätzen (falls ihr welche von euer Firma / NGO habt) und open-data Repositories (Regierungsinitiativen, Kaggle, etc.). Die Gruppenarbeit ist eine großartige Möglichkeit, alle gelernten Tools und Methoden anzuwenden und wird dir zeigen, wie eigenständig du bereits arbeitest.

Unser Teilzeit Format

Lerne in 24 Wochen Programmieren - mit einem individuellen Kursplan, der auf deinen Kalender zugeschnitten ist.

10:00 VORMITTAGS 05:00 NACHMITTAGS
07:00 NACHMITTAGS 10:00 NACHMITTAGS
Montag
Dienstag
Mittwoch
Donnerstag
Freitag
Samstag
Sonntag
Hausaufgabe Vorlesung anschauen zur Vorbereitung auf Morgen.
On-Campus Programmier-Aufgaben in Zweiergruppen mit Hilfe der Lehrer.
On-Campus Programmier-Aufgaben in Zweiergruppen mit Hilfe der Lehrer.
Hausaufgabe Vorlesung anschauen zur Vorbereitung auf Morgen.
On-Campus Werde täglich besser mit unseren Übungen und Projekten.

Verinnerliche deine neuen Skills durch Live-Code Sessions mit unseren Lehrern.
☀️
🏠Hausaufgabe

Vorlesung anschauen zur Vorbereitung auf Morgen.

🏫On-Campus

Programmier-Aufgaben in Zweiergruppen mit Hilfe der Lehrer.

Ein Vorgeschmack auf unser Programm in Tokyo

Jede Woche ist eine einzigartige Erfahrung.

On-Campus Programmieren in Zweiergruppen
On-Campus Programmieren in Zweiergruppen

Du triffst deine Mitschüler und Lehrer an drei Tagen in der Woche und löst gemeinsam Coding-Übungen. Ihr lernt, wie Entwickler zu denken und komplexe Probleme zu lösen.

Online-Vorlesungen und Lernkarten
Online-Vorlesungen und Lernkarten

Schau dir Vorträge auf unserer Online-Plattform in deinem Tempo an. Du befasst dich mit Kernkonzepten, bereitest dich auf die nächste Coding-Session vor und verinnerlichst neue Skills mithilfe unserer Lernkarten.

Recruiting und Networking Events
Recruiting und Networking Events

Wir veranstalten wöchentliche Events mit Gründern und Recruitern für unsere Teilnehmer. Werde Teil dieser lebendigen Tech-Szene!

Netzwerk und Online-Plattform

Unser Data Science Kurs ist erst der Beginn deiner Reise. Nach dem Kurs gehörst du zu einer weltweiten Tech-Community und hast Zugang zu unserer Online-Plattform, wo du immer weiter lernen und wachsen kannst.

Slack icon Slack-Gruppen

Erhalte Tipps und Ratschläge von erfolgreichen Data Scientists & Datenanalysten, Zugang zu exklusiven Jobchancen und Freelance-Stellen von Gründern und Entwicklern.

Online Classroom

Nutze jederzeit nach dem Kurs unsere Online-Lernplattform: hier findest du alle Data Science Vorlesungen, Screencasts, Übungen und Lernkarten.

Tech-Community

Werde ein Teil unserer globaler Community aus 9322 Alumni, die im Bereich Data Science arbeiten, sowie viele weitere Gründer, Entwickler und Produktmanager auf der ganzen Welt.

Icon tutorials Ein weltweites Netzwerk

Unsere unterschiedlichen Kurse gibt es in 40 Städten auf der ganzen Welt: wohin du auch reist, du gehörst zur Le Wagon Community!

Lebenslange Community und Tools

Finde einen Data Science Job bei den besten Tech-Firmen in Tokyo

Nach dem Ende des Programmierkurses profitierst du von unserer großartigen Karrierehilfe. Wir vernetzen dich mit den besten Recruitern und bringen dich mit relevanten Alumni in Kontakt.

microsoftwordCreated with Sketch. Career Playbook

Nutze unseren Alumni-Guide und starte erfolgreich in deine neue Data Science Karriere: bau dein Tech-Portfolio weiter aus, finde deinen Traumjob und lass dich von unseren 9322 Alumni unterstützen.

myspaceCreated with Sketch. Karriere Events

Mach mit bei unseren vielen Jobmessen und Networking Events, triff die besten Tech-Firmen und erhalte Angebote von Recruitern für spannende Datenjobs.

buymeacoffeeCreated with Sketch. Alumni Coaching Sessions

Unsere Alumni sind ständig in Kontakt mit neuen Teilnehmern: sie erklären dir, wie sie ihre Jobs als Data Scientists, Datenanalysten und Dateningenieure gefunden haben.

wechatCreated with Sketch. Karriere-Intros

Unsere lokalen Teams sind regelmäßig in Kontakt mit unseren Alumni und Recruiting-Partnern und vernetzen dich jederzeit mit relevanten Personen.

Die Alumni unseres Programmierkurses arbeiten bei den besten Firmen

Hier arbeiten unsere Alumni inTokyo

Die besten Firmen arbeiten mit Le Wagon zusammen und stellen unsere Alumni als Data Scientists, Datenanalysten und Dateningenieure ein.

Getaround 6 Alumni eingestellt
+4
ContentSquare 1 Alumni eingestellt
Aircall 3 Alumni eingestellt
+1
Doctolib 9 Alumni eingestellt
+7
Google 5 Alumni eingestellt
+3
Frichti 1 Alumni eingestellt

Willst du mehr lernen?

Der nächste Data Science Kurs Teilzeit-Programmierkurs in Tokyo startet am 20 Feb, 2021