フルタイム(9週間)

集中的に学ぶ9週間のコースでは、Pythonから先進的な機械学習モデルまで、データサイエンスについて幅広く学べます。データサイエンスチームで働き、キャリアを邁進するのに必要なすべてのスキルが身につきます。

コースに申し込む
Le Wagon 東京 の集中的に学ぶ9週間のコースでは、Pythonから先進的な機械学習モデルまで、データサイエンスについて幅広く学べます。
コースの詳細 今すぐ申し込む

東京で開催予定のコースのいくつかは、リモートで受講することができます。お申し込み後、担当マネージャーが追って連絡をし、詳細について説明いたします。

ユニークなコースに参加する

Le Wagonのデータサイエンスコース(フルタイム)では、たった 9 週間で、データサイエンスチームで働くのに必要なスキルがすべて学べます。Pandasから深層学習まで、最高のツールを使用し、チームで作業しながら、データの探索、整備をはじめ、実用的な洞察を得るために必要なデータ変換や本番環境に機械学習モデルを実装する一連の方法を学びます。

Le Wagonのデータサイエンスコースでは、データを扱う分野でキャリアを進めるためのスキルが身につきます。
Learn Data Science in 9 weeks
Check out what our alumni have built in 2 weeks

データサイエンスコースのカリキュラム

Le Wagonのデータサイエンスコースは、一歩づつ段階を踏んで学べるよう設計しています。Pythonの基本的なツールキットの使い方から数学関数、機械学習アルゴリズムの実装や開発サイクルまで幅広く学びます。

  • 0
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

準備万端でブートキャンプを迎えよう!

Le Wagonのデータサイエンスコースはとても濃い内容となっています。ブートキャンプ初日から効率的に学んでもらうため、受講生にはブートキャンプの前に必ずオンラインの事前学習を行ってもらいます。オンライン学習の内容は 40 時間ほどで、Pythonの基本、講義で頻繁に登場する用語、データサイエンティストが毎日仕事で触れる数学関数について学びます。

Pythonでデータサイエンス

PythonでのプログラミングやJupyter Notebookの使い方に加え、PandasやNumPyといったPythonライブラリを使って、大量のデータセットを探索、分析する方法を学びます。また、CSVファイルやSQLクエリ、リレーショナルデータベース、Google BigQuery、API、ウェブスクレイピングといったデータ収集の手法を習得します。

リレーショナルデータベースとSQL

適切な問いを考え、正しいSQLクエリでデータを取得する方法を学びます。ここではスキーマの構造を理解し、SELECT構文などを使った高度な操作でスタンドアローンのデータベースやDBeaverといったSQLのクライアントソフトウェアから有用なデータを抽出する方法を学びます。

データの視覚化

視覚化したデータをNotebookに加え、データ分析の結果を分かりやすく見せる方法を学びます。matplotlibseabornといったPythonライブラリでデータフレームをグラフ化し、意思決定に役立つ情報へと変換します。

統計、確率、線型代数

ブートキャンプで使用するライブラリやモデルの基礎となる数学知識を身につけます。統計と確率の基礎(平均値、分散、確率変数、ベイズの定理)に加え、PandasやNumpyといったライブラリの中核的な数式処理である行列処理について学びます。

c pulse 統計的推論

オブジェクト指向プログラミングでPythonリポジトリを構築する方法を学びます。コードを整備し、再利用できるようにします。また、大量にあるデータセットのデータの事前処理を行い、重回帰モデルに基づいた統計的結果を解釈する方法を学びます。

speaker コミュニケーション

データアナリストには非技術者に分析結果を伝える役割があります。ここでは費用便益分析を使って、ビジネス上の判断に用いられるよう、テクニカルな洞察を説得力のある形で説明する方法を学びます。チームメンバーとプロジェクトの進捗を共有し、得られた洞察を発表、比較しながら学びを深めていきます。

データ前処理と教師あり学習

データを探索、整備する方法を学びます。はじめにベクトル化といったテクニックを使い、データ処理の準備を行います。次に教師あり学習の典型モデルである「線形回帰」や「ロジスティック回帰」を学びます。また、Pythonライブラリ「scikit-learn」の学習アルゴリズムKNN( K−近傍法)で、予測や分類を行う方法を学びます。

汎化と過学習

トレーニングとテストのフェーズを組み込みます。本番環境にデプロイした時、モデルが触れたことのない新しいデータに汎化し、想定通りの正確性を維持するためです。正則化を用いて過学習を防ぐ方法やモデルの正確性を高めるのに適切な損失関数について学びます。

パフォーマンス指標

モデルのパフォーマンス評価のため、最適化を行う対象を明確にし、適切な評価指標を選んでビジネスへの影響を検証します。交差検証やハイパーパラメータ調整といったバリデーションを使ってモデルのパフォーマンスを向上させます。SVM(サポートベクターマシン )と呼ばれる優れた教師あり学習のモデルについても学びます。

教師なし学習と応用

次に教師なし学習を学びます。次元削減を行うPCAやデータセットを分類するクラスタリングといったメソッドを実装します。ランダムフォレストや勾配ブースティングなど、複数モデルを組み合わせてパフォーマンスを向上させる方法を学び、扱えるツールの幅を増やします。

画像、テキストデータを使う

高次元の変数を使い、それらを扱いやすい入力値に変換する作業に慣れていきます。画像データを扱うのに必要な正規化、標準化、白色化といった一般的なデータの前処理の方法を学びます。テキストデータに関しては実施するNLP(自然言語処理)のタスクに合わせ、適切なエンコーディングを施す方法を学びます。

ニューラルネットワーク

ニューラルネットワークの構造(ニューロン、レイヤー、スタック)とそれらのパラメータ(活性化関数、損失関数、最適化アルゴリズム)について学んでいきます。画像データで使う畳み込みニューラルネットワークや、時系列のあるデータで使う回帰型ニューラルネットワーク、テキストに使う自然言語処理ネットワークなどが一人で作れるようになります。

Kerasを使った深層学習

新しいライブラリKerasについて学びます。Kerasは、Googleが開発した深層学習ライブラリtensorflowを扱いやすくするラッパーです。Kerasの基本的なテクニックを学び、深層学習モデルの作り方を学びます。

コンピュータビジョン

物体検知と物体認識のネットワークを作り、深層学習を使ったコンピュータービジョンについてさらに理解を深めます。トレーニングセットを拡張し、モデルの汎化性能を高めるため、データ拡張でコンピュータ画像に揺れ(ランダムな切り抜きや強度の変化など)を加えるといった高度なテクニックを実装していきます。

機械学習パイプライン

Jupyter Notebookからコードエディタに移ります。素早く、的確にコードを修正できるよう、機械学習プロジェクトを立ち上げる適切な方法を学びます。sklearn-pipeline のエンコーダとトランスフォーマーを使って、機械学習モデルを堅牢でスケーラブルなパイプラインを持つモデルに変換します。

MLflowを使った機械学習ワークフロー

機械学習モデルをゼロから作り上げるにはデータの事前準備、試験、修正、調整といった多くの作業を行う必要があります。良いモデルを作るために、特徴エンジニアリングやハイパーパラメータ調整の仕方を学びます。これにはMLflowと呼ばれるライブラリを活用します。

Google Cloud Platformで本番環境にデプロイ

最後に、制作したコードとモデルを本番環境にデプロイします。Google Cloud AI PlatformとAirflowを使ってモデルのトレーニングをスケールさせ、パッケージ化して世界に公開します。仕上げにDocker環境を使って、あなた独自のRESTful Flask API をデプロイします。これはどんなフロントエンドインターフェイスでも使えるAPIです。

受講生のプロジェクト

最後の2週間は、挑戦しがいのあるデータサイエンスの課題にグループで取り組みます!実際のデータサイエンスプロジェクトと同じように、チームで共通のPythonリポジトリとGitを使い、協力しながら進めていきます。このプロジェクトではあなたがすでに持っているデータセット(所属する会社や非営利団体のものがあれば)、あるいはオープンデータのリポジトリ(政府が公開しているものやKaggleなど)を使います。データサイエンスコースで学んできたツールやテクニック、方法論を実践するのにぴったりです。どれだけ自分が成長したか実感できるでしょう。

Le Wagonの典型的な1日

朝の講義から夕方のトークイベントまで、毎日が充実した内容になっています。

  • 09:00 講義
  • 10:30 課題
  • 16:00 ヨガ
  • 17:00 Recap
  • 18:00 イベント 20:00
講義
講義09:00 - 10:30

毎朝コーヒーを片手に、インタラクティブな授業に参加します。それから学んだことを実践していきます。

課題
課題10:30 - 16:00

その日のパートナーと組み、講師のサポートを得ながらプログラミングの課題に取り組みます。

ヨガ
ヨガ16:00 - 17:00

コーディングを学ぶのには集中力を使います。ヨガで息抜きをし、リラックスすることも大切です。

ライブコード
Recap17:00 - 18:00

ライブコードではその日の課題の復習と、次の授業の概要について説明します。

トークセッションとワークショップ
イベント18:00 - 20:00

Le Wagonが主催するトークイベントやワークショップで、成功している起業家から貴重なアドバイスを得たり、刺激を受けたりしましょう。

ネットワークと学習プラットフォーム

データサイエンスコースの受講は旅の始まりにすぎません。コース修了後、あなたはグローバルテックコミュニティーの一員として、Le Wagonのオンラインプラットフォームにアクセスし、学び、成長し続けることができます。

Slack icon Slackグループ

プロのデータサイエンティストやデータアナリストから仕事のコツやアドバイスが聞けます。また、起業家や開発者がここにしか公開していない求人情報を見ることもできます。

オンラインクラス

プログラム修了後もLe Wagonのオンライン教育プラットフォームはいつでもご利用いただけます。データサイエンスの講義、スクリーンキャスト、課題、単語帳などを揃えています。

テックコミュニティー

9297名以上の卒業生が在籍するグローバルコミュニティーを活用しましょう。このコミュニティーには、データ関連の仕事に就いた卒業生を始め、世界で活躍する起業家、開発者、プロダクトマネージャーが多く在籍しています。

Icon tutorials 海外展開

世界、39キャンパスで随時コースを開催しています。どこにいようとあなたはLe Wagonコミュニティーの一員です。

ずっと使えるツールとコミュニティー

優良テック企業でデータ分野の仕事を見つけよう

コースを終えたら、Le Wagonのキャリアサービスを利用しましょう。受講生と適切なリクルーターをつなぐ活動を行っています。

microsoftwordCreated with Sketch. キャリアプレイブック

データサイエンティストとしてキャリアを始めるためのガイドを用意しています。コース修了時に役立ててください。ポートフォリオを充実させ、目標としている仕事を探し、卒業生9297名が在籍するコミュニティーを活用しましょう。

myspaceCreated with Sketch. キャリアイベント

ジョブフェアやネットワークイベントに参加し、優良なテック企業と出会いましょう。データ関連の人材を探しているリクルーターとつながることができます。

buymeacoffeeCreated with Sketch. 卒業生によるコーチングセッション

データサイエンスコースの卒業生は、新しくコースを終えた受講生と積極的に交流し、自らの経験を伝えています。データサイエンティスト、データアナリスト、データエンジニアとして仕事を見つける方法を聞くことができるでしょう。

wechatCreated with Sketch. キャリア紹介

Le Wagonの現地チームは卒業生や採用パートナーとつながっていて、彼らの状況や求めている人材について把握しています。現地チームはあなたの希望に沿う、適した人物を紹介できるでしょう。

ウェブ開発コースの卒業生は有力企業に就職しています

データ関連の職に就いたLe Wagonの卒業生

多くの優良企業がLe Wagonの採用パートナーになり、卒業生をデータサイエンティスト、データアナリスト、データエンジニアとして採用しています。

Frichti 1 名の卒業生を採用
Doctolib 9 名の卒業生を採用
+7
Google 5 名の卒業生を採用
+3
Getaround 6 名の卒業生を採用
+4
Aircall 3 名の卒業生を採用
+1
ContentSquare 1 名の卒業生を採用

もっと詳しく知りたいなら

次回、東京 でのデータサイエンスコース (フルタイム)ブートキャンプは4月 12, 2021に開催予定です。