プログラミング

デイトラPythonコース徹底レビュー【自動化& 予測ツールを開発できる!】

デイトラPythonコース

こんにちは、web系フリーランスとして2年ほど活動しておりますしょーごです。

今回はデイトラPythonコースに挑戦しましたので、徹底レビューしていこうと思います。

この記事でわかること

デイトラPythonコースで学べること、何ができるようになるか、何を作るのか、自分には買いなのか、すべて

しょーご
しょーご
ちなみに筆者はエンジニアですが、Pythonはほとんど知りません。大昔にProgateで数ミリ触った程度の素人です。素人の視点で書いていきます。

デイトラPythonコースの概要

デイトラPythonコース

デイトラPythonコースを一言でいうと、

勉強しながら日常生活にも役立つプログラムを作ることに特化したコース

と言えます。

デイトラPythonコースで作るもの

では具体的にどんなものを作るか列挙してみました。

  1. Pythonで特によく使う文法
  2. 業務自動化ができるブラウザの自動化
  3. 人気のツイートが一目で分かるTwitterのデータ分析
  4. 未来の株価を知れる予測
  5. Youtubeの登録者をコスパ良く伸ばすためのデータ分析
  6. 投資コンペで機械学習を用いた株価予測
  7. Tinderの自動化による恋人探し
  8. LINEチャットボット制作
  9. Instagramのフォロワーを伸ばすためのインサイト分析
  10. Djangoを使用したSNS分析アプリ作成

なんかわからないけどめちゃくちゃワクワクしませんか笑?

ここがデイトラPythonコースが他スクールを凌駕する点です。

しょーご
しょーご
通常Python教材と言えば「文法が延々と続く」「犬と猫を画像認識してみよう!」「花の種類を覚えさせよう!」みたいなのばかりで、それもおもしろいですが「だから?」となりやすいのです
しょーご
しょーご
しかしデイトラPythonコースでは「日常ですぐ使えるツールの開発」を行うので、モチベーション高く取り組むことができます!

デイトラPythonコースのメンター

デイトラPythonコース

デイトラPythonコースはカリキュラム作成とメンターにお二人のエンジニアが参画されています。

お二方ともかなり経験豊富なエンジニアで、まにゃpyさんはもともとマーケティングをしており、その自動化でPythonにのめり込んだ方で、様々なPython最新情報を発信されている方です。

はる@プログラミング講師さんはスーパーフルスタックエンジニアで海外で活動されてたりもしている方です。

デイトラPythonコースの料金

デイトラPythonコース

デイトラPythonコースの料金は¥89,800です。

いまだけ早割¥79,800となっております。

通常プログラミングスクールのPythonコースは20~30万円であることが多い中、10万円を切るのは嬉しいですね!

デイトラpythonコース

余談ですが、デイトラが全体的に良心的な価格で講座を提供できているのは、広告費をかけずともTwitterやYouTubeなど無料のSNSで集客できているからだそうです。

デイトラPythonコース初級編

デイトラPythonコース
初級編で作るもの、できること
  1. 基礎文法
  2. ブラウザ自動操作→キーワード自動収集
  3. 狙うキーワードの競合サイトのタイトル、見出しをPythonに自動で抽出させ、スプレッドシートに書き出す
  4. ページの内部リンクを可視化して、内部SEOを強化
  5. Twitterの色々なデータを分析してフォロワーを増やそう
  6. 時系列予測して伸びるキーワードを分析

Pythonでプログラミングする準備をしよう

DAY01 はじめに

環境構築と基礎文法を学びました。

やったこと
  1. python環境の構築
  2. fotmatメソッド、f-string
  3. stripメソッドとlen関数、replaceメソッド
  4. 辞書、リスト、タプル

こういった基礎文法は「退屈だなぁ」と思うかもですが、実際にPythonでめちゃくちゃ使うもののみを集積していますので、

ここで理解を固めておきます。

DAY02 条件分岐や繰り返し、モジュールのインストールについて学ぼう

やったこと
  1. 条件分岐と繰り返し(for,while,if文、elif文、else文)
  2. 例外の処理(try except文)
  3. 組み込み関数、モジュール、import

引き続きPythonの基礎を学んでいきます。

特にモジュール、パッケージ、ライブラリについてはこのコースで多用していきますので、しっかり理解していきます。

・モジュール
.pyファイル
・パッケージ
モジュール詰め合わせフォルダ
・ライブラリ
モジュールやパッケージ詰め合わせ群

外部ライブラリをターミナルでインストール(pip install)し、VSCodeでモジュールをimportして機能を使えるようにします。

しょーご
しょーご
JSのnpm,RubyのGemなんかに似てるかもね

DAY03 関数について学ぼう

同じ処理は何度も出るようであれば、関数化するのが一般的です。

HTML,CSSなどにおいても何回も同じ処理が出てくるようなら同じclass名に揃えるかと思いますが、同じようなことです。

DAY04 エラーが起こった時の対処法を知ろう

プログラミングをしていると、エラー文と頻繁に遭遇することになります。DAY04にして自分は既に以下のようなエラー文を見ています。

  1. SyntaxError(文法)
  2. IndentationError(インデント)
  3. TypeError(型)

このパートでは主要なエラー文を予習しておきます。プログラマーにとってエラー文はヒントを教えてくれる友達なので、意味をしっかり理解しておきましょう。

SEOで狙える大手企業がいないキーワードを自動で収集+結果を書き出そう

DAY05 Pythonによるブラウザ自動操作①

やったこと
  • seleniumでGoogleのトップページを開く
  • seleniumを使ってGoogleから特定キーワードで検索する

seleniumというライブラリでブラウザを自動操作していきます。

作成したpythonコードを実行したら、Chromeブラウザが自動で立ち上がり、キーワードが入力されて検索が行われたのでシンプルにすごいと思いましたw

DAY06 Pythonによるブラウザ自動操作②

やったこと
  • 検索結果の1位から10位までのURLを取得
  • プログラムの全体像の解説、with構文を使用したテキストファイルの読み込み

検索結果の1位から10位までのURLを取得」と聞くと聞こえは難しそうですが、Chromeブラウザはseleniumで簡単にアクセスできるので、

結果の取得をDAY04までに習った基礎文法を用いながら書いていきます。

ほんの少しだけコードをお見せします。

# '検索キーワードリスト.txt'ファイルを読み込み、リストにする
with open('検索キーワードリスト.txt') as f:
    keywords = [s.rstrip() for s in f.readlines()]

しょーご
しょーご
予め用意しておいた検索キーワードリストを読み込んでキーワード一個一個を変数keywordsに入れる処理だよ。

DAY07 Pythonによるブラウザ自動操作③

やったこと
  1. 正規表現の基礎、正規表現チェッカーの使い方
  2. 正規表現の最長一致と最短一致

文章から文字列やテキストを取り出す時にとっても便利な正規表現を学びます。

しょーご
しょーご
身近な例だと、フォームの郵便番号チェックとかも正規表現で判断してるよ!

/^d{3}-d{4}$/

DAY08 Pythonによるブラウザ自動操作④

pythonは標準で「re」という正規表現用モジュールを含んでいるので、reモジュールを使用していきます。

text = "りんごをひとつ、みかんをふたつ、パイナップルをみっつ食べました"
m = re.search("(ひとつ|ふたつ|みっつ)", text)
print(m.group())
# この場合一番最初に一致した「ひとつ」が返される

このreモジュールを使い、予め読み込んでおいた企業ドメインを正規表現で判断して、その企業ドメインが含まれている場合は除外するというものです。

今回やりたいこととして、SEOで狙える大手企業がいないキーワードを自動で収集+結果を書き出そう

というものなので、リストアップしておいた企業ドメインの記事は正規表現で除外する必要があるということです。

DAY09 プログラムを関数化してみよう

コードを関数化するなどしたら、いよいよ実行していきます。

以下のTweetがわかりやすいかなと思います。

大手がいないキーワードを一覧にまとめてくれるので、非常にありがたい限り。

少し時間がかかるので、Pythonがキーワード抽出を行っている間はお昼を食べていました笑

狙うキーワードの競合サイトのタイトル、見出しを分析してSEO上位を狙おう

つくるもの

複数のキーワードで検索して、それぞれのキーワードのグーグル検索の見出しの1位から10位までのタイトルと説明文、URL、見出し(H1タグ~H5タグ)を取得するプログラム

それでできること

上位サイトの「タイトル」や「見出し」、を見ることによってそのキーワードで記事を書く際に満たすべきトピック(話題)を網羅的に把握することができる。

そして、その分析したトピック+αの記事を書くことでユーザーに刺さる記事を書くことができ、上位表示によりつなげやすい記事を書くことが可能となる。

つまり、このプログラムを使えば「あるキーワード」で記事を書く際に必要なトピックを一覧でパッと把握することができるようになり、記事調査の時間を時短することができる

デイトラPythonコース

DAY10 Googleスプレッドシートの準備

まずは使う外部ライブラリをインストールしていきます。

  1. requests
  2. BeautifulSoup
  3. gspread
  4. oauth2client

またAPIについても学んでいきます。

APIはPythonではデータ収集する際によく使用するので、どのようなものなのか、どのように使うのかを動画を見てしっかり理解します。

しょーご
しょーご
簡単に言うと、例えばTwitter APIならTwitterに蓄積されているデータや機能を自分の開発のために拝借することができるよ!

ここではスプレッドシートのAPIキーを取得しました。

DAY11 Pythonによるブラウザ自動操作

スプレッドシートを操作するための準備をしていきます。

引き続きseleniumを使ったブラウザ自動操作のコードを書いていきます。

  1. 検索ボックスをHTMLから取得
  2. 検索ボックスにキーワードリストから取得したキーワードを一つずつ入力
  3. 検索実行

この流れがだいぶ理解できるようになってきました。

DAY12 条件分岐と繰り返しを使って要素を取り出してみよう

検索結果からtitle.url.descriptionなどを取得するために、検証ツールで要素を調べていきます。

ここの値を検索結果から取得して、用意しておいた空の辞書(オブジェクトのようなもの)に入れてあげます↓

items = {
    'keyword': keyword,
    'title': ['タイトル'],
    'url': [],
    'description': ['説明文'],
    'h1': [],
    'h2': [],
    'h3': [],
    'h4': [],
    'h5': []
}

DAY13 スクレイピングをしてみよう

使用するライブラリ

requests
HTTP通信用のPythonライブラリであり、HTMLを取得する際にとても役立ちます。

BeautifulSoup
requestsで取得したHTMLを解析して情報を取り出す際にとても役立ちます。

スクレイピングを行う際は、この2つのライブラリをセットで使うことが多いので覚えておきます。

ここでは「記事中のh1~h5タグを自動取得する」コードを書いていきます。

DAY14 Googleスプレッドシートに結果を書き込んでみよう①

ここではスプレッドシートに結果を書き込むための準備を行います。

  1. 準備しておいた認証情報でPythonでログイン処理
  2. 作っておいたワークブックを参照
  3. ワークシートを作成

これらを全部Pythonで行います。ほとんどお決まりの処理なので、覚える必要はないです。

DAY15 Googleスプレッドシートに結果を書き込んでみよう②

デイトラPythonコース

最終的にこのようなリストを作成いなければならないので、

  • 順位
  • タイトル
  • URL
  • 説明文
  • H1~H5タグ

をシートに挿入していく処理を書いていきます。

コードを一部だけチラ見せするとこんな感じです。

try:
        # 共有設定したスプレッドシートのシート1を開く
        workbook = gc.open_by_key(SPREADSHEET_KEY)
        # ワークシートを作成(タイトルがkeywordで、50行、50列)
        worksheet = workbook.add_worksheet(title=items['keyword'], row='50', cols='50')
        # シートが作成されたらフラグを立てる
        flag = True
        # スプレッドシート書き込み処理

        # キーワードの書き込み
        worksheet.update_cell(1, 1, '検索キーワード')
        worksheet.update_cell(1, 2, items['keyword'])
        # 1秒待機
        time.sleep(1)
        # 順位の書き込み
        column = 2
        worksheet.update_cell(2, 1, '順位')
        for ranking in range(1, 11):
            worksheet.update_cell(2, column, ranking)
            column += 1
        # 3秒待機
        time.sleep(3)
        # 「タイトル」の書き込み
        column = 1
        for title in items['title']:
            worksheet.update_cell(3, column, title)
            column += 1
        # 3秒待機
        time.sleep(3)

DAY16 プログラムを関数化してみよう

今回の処理の流れと関数化のメリットをわかりやすく伝えるために、講義動画のスクショを使わせていただこうと思います。

デイトラPythonコース

これまで処理を細切れに書いてきましたが、このように処理の塊ごとに関数化することによって、処理が置いやすくなったり、可読性保守性がよくなったりします。

狙うキーワードの競合サイトのタイトル、見出し(h1~h5)をPythonに自動で抽出させ、スプレッドシートに書き出す処理完成!

下は「JavaScript 勉強方法」のキーワードを用意してPyhtonに情報を持ってきてもらってスプレットシートにかき出した結果です↓

デイトラPythonコース

ページの内部リンクを可視化して、内部SEOを強化しよう

デイトラPythonコース
つくるもの

ホームページの内部リンクを可視化するツール

それでできること

内部リンクの数とどんなページに内部リンクを送っているのかを可視化することで、内部SEO強化につながる

しょーご
しょーご
例えばこのページにも複数内部リンクがあるよ。例えば「関連記事」「人気記事」または以下のような自サイト内の記事リンクは全部内部リンクだよ

DAY17 Pythonでページの内部リンクを取得してみよう①

今回新しく使う外部ライブラリ
  1. urllib
  2. networkx
  3. matplotlib

ここでは今回分析するwebサイトページのURLなどを正規表現で取得するコードを書いていきます。

DAY18 Pythonでページの内部リンクを取得してみよう②

内部リンクを正規表現で取り出していきます。

正規表現チェッカーを使うとわかりやすいですね。

デイトラ
弊ブログなら^https://shogo-log.com.|^/[^/].|^//shogo-log.*で取り出せます。

DAY19 Pythonでネットワーク図を書いてみよう

ネットワーク図の仕様を学んで、networkxモジュールを使って図を描画していきます。

  1. グラフオブジェクトの作成
  2. 頂点と辺や経路の追加
  3. レイアウトの指定
  4. ネットワーク図描画

デイトラPythonコース

しょーご
しょーご
ノード、エッジ、パス、など概念を掴むのが少し難しいかもだけど、networkxは簡単に使えるよ

この段階で汚いですが、ネットワーク図を描画することができました。

デイトラPythonコース
このままでは見づらい

DAY20 ネットワーク図を見やすく整えていこう

さきほどのネットワーク図のスタイルを整えたり、関連性の高い内部リンクのみに絞って表示する処理を書いていきます。

  1. 正規表現でhttps://shogo-log.comの部分削除(かぶるため)
  2. feedやprofile,aboutなど内部リンクと関係性低いリンクを削除

DAY21 エラーを素早く解決するために、デバッグについて学び、プログラムを関数化してみよう

まずはデバッグについて学びます。

デバッグの流れ
  1. ブレークポイントを置く
  2. 一行一行実行していく
  3. 変数などの中身を見る

デバッグはPythonに限らずプログラミング、web制作をするなら避けては通れない作業です。

デイトラPythonコース
VSCodeを用いて一行ずつ処理の流れを追っていく

デバッグがわかれば、ググって仮に答えが見つからなくても「どこでバグが起こっているかわかる」という面で、自己解決力が高くなります。

デイトラPythonコース
デイトラPythonコース
最終的にこのような綺麗なネットワーク図ができました

Twitterの色々なデータを分析してフォロワーを増やそう

デイトラPythonコース
つくるもの
  1. Twitter APIを使って特定キーワードで期間を指定してつぶやきを取得
  2. ツイートを感情分析してみよう
  3. 機械学習を用いていいねの伸びやキーワードの伸びを予測してみよう
できること

サービスの需要を調べることが可能になります。

サービスの需要を調べることができれば、Twitterでどのようなサービスが受けるのか?また、サービスを伸ばすためにはどのようなつぶやきをしていけばいいのか分かるようになります。

DAY22 PythonからTwitterを操作しよう

Twitter APIを取得する前にWeb APIとはどのようなものか学んでいきます。

例えばAPIを利用するには「APIキー」というものが必要になります(申請して手に入れる)
利用者識別番号のようなもので、これがないとデータにアクセスできません。

DAY23 Twitter APIを取得しよう

デイトラPythonコース

個人的に割と鬼門でした笑

TwitterAPIは審査が厳格な上に、利用する理由やデータをどのように使うかなどを数百語の英語で送り、その後審査を通過しなければなりません。

私はDeepL翻訳で乗り切りました笑

デイトラPythonコース DeepL Twitter API

自分の場合は送信してから30秒以内に返信があり、すぐにAPIキーを取得することができたので、

文字数以上をきちんと入力すれば自動的に許可が降りるのではと思いました。

DAY24 Twitter APIを使って特定のキーワードで期間を指定してつぶやきを取得してみよう①

今回使うライブラリ
  1. pandas(データを表にしてまとめてくれる)
  2. tweepy(Twitter APIの取り回しを簡単にしてくれる)

ここでは試しに、「デイトラ」のキーワードで「直近一週間でリツイートといいねが合計10以上のツイート」を集計してみます。

デイトラPythonコース

DAY25 Twitter APIを使って特定のキーワードで期間を指定してつぶやきを取得してみよう②

DataFrameというもの(表)を作成していきます。

デイトラPythonコース
  • ユーザー名
  • ユーザーID
  • RT数
  • いいね数
  • 日時
  • 本文

これらをDataFrameに整えていきます。

df = pd.DataFrame({'ユーザー名': list_username,
                   'ユーザーID': list_userid,
                   'RT数': list_rtcount,
                   'いいね数': list_favorite,
                   '日時': list_date,
                   '本文': list_text
                   })

しょーご
しょーご
DataFrame&pandasは書き方が特殊なので慣れが必要なのですが、めちゃくちゃ使うみたいなので、慣れていきます。

DAY26 Twitter APIを使って特定キーワードで期間を指定してつぶやきを取得してみよう③

pandasのメソッドで、作成したデータをCSVに出力してあげて完成です。デイトラのキーワードで検索をかけてみました。

DAY27 ツイートを感情分析してみよう①

Pythonによるネガポジ分析の方法

ツイートを感情分析するとは、つまるところネガポジ分析となります。

ネガポジ分析とは、ある文章や単語がネガティブかポジティブかその度合いを数値で調べる

という意味です。

どの単語がネガティブでどの単語がポジティブかは「極性辞書」というものに記載されているため、自分で用意する必要はありません。

デイトラPythonコース
例えば「いのち」はpでポジティブ、「いびき」はnでネガティブ
使うライブラリ

janome(形態素解析をする)

DAY28 ツイートを感情分析してみよう②

最終的にこのようなものができました。

また、ここで取得できたツイートは自動でcsvにしてくれます。

デイトラPythonコース

DAY29 機械学習を用いていいねの伸びやキーワードの伸びを予測してみよう①

使用するライブラリ
  1. pystan
  2. prophet
  3. plotly

ここでVSCodeではなく、「Jupyter Lab」という実行環境でコードを書いていくことになります。

デイトラPythonコース
一行一行実行しながらコードをかけるので、わかりやすい

ここで、pandasのメソッドでDataFrameを自由に操作できるように練習しておきます。

デイトラPythonコース

DAY30 機械学習を用いていいねの伸びやキーワードの伸びを予測してみよう②

初級編最終日は、Prophetを利用して実際にNocodeというキーワードの伸びを予測していきます。

機械学習の流れ
  1. データを集める
  2. データの整形(規定のDataFrame)
  3. 機械学習の手法の選択(今回はProphet)
  4. データを学習させてモデルを作る(fit、make_future_dataframeメソッド)
  5. 出来上がったモデルを使って予測(predictメソッド)

Prophetで予測できるようにDataFrameを整形していき

デイトラPythonコース

機会学習自体は秒で終わりました笑

デイトラPythonコース

最終的にグラフに描画します。

デイトラPythonコース

しょーご
しょーご
NoCodeのいいね数の伸びを予測しているよ、黒い点が実数で青いラインが予測値です

ちなみに「YouTube登録者数」「Twitterフォロワー数」も独自に時系列予測してみました。

時系列予測 youtube チャンネル登録者数
youtube
時系列予測 twitter フォロワー数
twitter

自分でCSVを用意できればなんでも測れます!!

Pythonコース中級編編

デイトラPythonコース
作るもの、できること
  1. 株価を予測してみよう
  2. GithubとのTwitterとの言語人気を比較して、トレンド言語を探そう
  3. 特定のキーワードで直近で10万回以上再生されバズっている動画をリストアップしよう
  4. 形態素解析を使ってバズってる動画によく使われている決め台詞(ネガポジ分析)
  5. 特定のキーワードで24時間以内に数万回再生されている動画が出たらLINEに通知しよう
  6. 自分の動画がライバルの関連動画にどれぐらい露出され順位はどのくらいか調べよう
  7. 機械学習を使って世界規模の株価予測コンペで賞金をゲットしよう

株価を予測してみよう

DAY31 <未来の株価を予測してみよう>株価のデータを取得しよう①

ソニーの株価を予測するために、これまで使ったseleniumとProphetを使っていきます。

株価の予測には「株価CSVデータ」が必要ですが、このCSVダウンロードからPythonで自動で行っていきます。

しょーご
しょーご
手動でデータは準備しないのがいいですねw

DAY32 <未来の株価を予想してみよう>個別株価の予測②

データ取得の流れ
  1. まずは2013年から2020年までの株価CSVを取得する
  2. その後取得したCSV(DataFrame)を縦に結合し、一つのCSVとして出力

これにて検証用のデータが揃いました。

デイトラPythonコース

DAY33 <未来の株価を予測してみよう>個別株価の予測②

ここまででデータの準備はできたので、あとはProphetで時系列予測していきます。

ソニーの今後3年の株価予測をしてみました。

デイトラPythonコース

GithubとのTwitterとの言語人気を比較して、トレンド言語を探そう

Githubとはプログラミング言語のソースコード管理システムで、どの言語で活発に開発されているかすぐに分かります。

DAY34 Githubからデータを収集しよう①

流れ
  1. Github APIを使ってスター数の多いリポジトリを集計
  2. 人気リポジトリの言語を判別し、データフレーム化
  3. データをスター数の多い順に並べ替え

Githubからアクセストークンを取得してアクセスしてデータをもってこれるようにしておきます。

しょーご
しょーご
余談ですが、こうした APIキーやアクセストークンは外部に見られると不正利用されて色々終わります、保管には気をつけましょう

DAY35 Githubからデータを収集しよう②

言語のいいね数ランキングは以下のようになりました。

デイトラPythonコース
 pandasでDataFrameにすればこのように見やすい表形式で表せます。

しょーご
しょーご
はぇ〜 TypeScriptはJavaScriptの上位互換だから、実質JavaScriptさん一強ってかんじですねぇ

DAY36 <課題>Twitterrから言語ごとのデータ収集をしよう

ここでPythonコース初めての課題です。

課題

Twitter APIを使用して、過去7日間のプログラミング言語のいいね数のデータを取得

与えられるヒントは以下のようなものです。

ヒント
  1. TwitterAPI情報のセット
  2. for文を使って言語ごとにTwitterデータを取得していく
    tweepy.Cursorメソッドを使う
  3. ツイートのデータdataから言語ごとのデータフレームdfを作成
    辞書の形またはリストの入れ子の形で作成
  4. 言語名といいね数のデータフレームを(言語ごとに)作る
    (1)言語ごとにいいね数の総和を取り、空のリストに追加→df[‘いいね数’].sum() を使う
    (2)言語名といいね数のリストから辞書の形でデータフレームを作る
  5. データフレームをいいね数が多い順に並べ替えて出力(print)
    df.sort_values(by = ‘いいね数’, ascending=False) を使う

DAY37 <課題解説>Twitterから言語ごとのデータを収集しよう

コードリーディングについて

以下金言だと思いました。

意外とこれは盲点なんですが、慣れていない方はコードを上から順番に読もうとしてしまいます。

大体がめちゃくちゃ読みにくいと思います。

その理由は上に書いてあることはほとんど下で使うための準備だからです。

ですので、「これはなぜimportしてるのか?」とか、「この変数は何に使うのだろう?」とか見ただけでは分からないことが多いと思います。

実は、「コードは(作りたいもの)結論が最後に書いてあることが多いです。」

ですので、最終的に何を作りたいのか?その結論をまず見つけます。

そしてその結論はmain()関数の最後に書いてあることが多いんです。

Pythonコース DAY37 教材より

他人のコードを見て参考にするとき、この考えは特に役立つと思います。

取得できたデータと考察

以下のようなデータが取れました。

Twitter プログラミング言語 いいね数

さきほどのGithubとは全然違った結果になっていますね。

デイトラPythonコース
Tweetは日本語のみ対象としています、日本人はCSSスキ?

また独自にTwitterいいね数をグラフにしてみました。

デイトラPythonコース

しょーご
しょーご
僕の考察だけど、難しい話ほど関心を得るのは難しい、つまりビジュアルでもわかりやすいCSSがTwitterでは受けやすいと推察しているよ

特定のキーワードで直近で10万回以上再生されバズっている動画をリストアップしよう

やること

特定のキーワードで直近で10万回以上再生されている動画をリストアップする

  1. YouTube APIキーを取得する
  2. YouTube APIの基本的な使い方を学んでいく
  3. 特定のキーワードでバズっている動画のリストアップ①
  4. 特定のキーワードでバズっている動画のリストアップ②
  5. 結果をグーグルスプレッドシートに書き込む

DAY38 YouTube APIを取得しよう

このパートではYouTube APIを取得するのですが、初期状態だと使えるリクエスト数が少ないです。

なので、YouTube APIの上限を増やす(45倍にする)ために申請するところまでやっていきます。

上限申請はYouTube公式と英語でやり取りしないといけない上に、作成するアプリ紹介の動画も撮って送らないといけません。また審査の時間も数日かかります。今後カリキュラムの変更で最初の方にAPI関連の申請は移動する可能性があります。

DAY39 Youtube APIの基本的な使い方を見ていこう

DAY40 特定のキーワードで10万回以上バズっている動画をリストアップしよう①

DAY41 特定のキーワードで10万回以上バズっている動画をリストアップしよう②

ここまではAPI経由で取得して得られたデータをDataFrameにして整形していきます。

DAY42 結果をグーグルスプレッドシートに書き込みしよう

実行して得られた情報をグーグルスプレッドシートに書き込むプログラムを作成していきます。

形態素解析を使ってバズってる動画によく使われている決め台詞(ネガポジ分析)

DAY43 バズった動画のタイトルを形態素解析して入っているキーワードの割合を調べる

DAY44 バズった動画のタイトルをネガポジ分析してプラスかマイナスかどちらがバズり安いか調べてみよう①

DAY45 バズった動画のタイトルをネガポジ分析してプラスかマイナスかどちらがバズり安いか調べてみよう②

特定のキーワードで24時間以内に数万回再生されている動画が出たらLINEに通知しよう

DAY46 LINE Notifyの設定をしよう

DAY47 バズった動画を調べて通知できるようにしてみよう

DAY48 herokuを使って定期実行できるようにしよう

自分の動画がライバルの関連動画にどれぐらい露出され順位はどのくらいか調べよう

DAY49 自分の関連動画のタイトルを抽出してみよう

DAY50 ライバルの動画の関連動画を抽出してみよう①

DAY51 ライバルの動画の関連情報を取得してみよう②

機械学習を使って世界規模の株価予測コンペで賞金をゲットしよう

DAY52 Numeraiについて学ぼう

DAY53 Numeraiに登録しよう

DAY54 機械学習手法について学ぼう

DAY55 トレーニングデータとトーナメントデータを読み込もう

DAY56 Numeraiに予測を提出しよう

他のデイトラレビュー記事一覧

\\\コーディング教材公開中///

HTML初心者からWordPress実案件レベルまでのコーディング教材noteで公開しています。

XDからの模写コーディング教材

XDデザインデータからのコーディング経験を積むことができ、ポートフォリオとして活用していただくことも可能です

初級編は初めてデザインからコーディングする方向け、中級編はJavaScriptやjQueryの練習、上級編WordPressの実案件を模擬体験できるレベル感にしています。

しょーご

自分が「これを実案件までに学習しておくと良いな」と感じたポイントを詰め込んだ教材になります!

マガジンでまとめて購入していただくとお得になります。

書籍だけではなかなか実力がつかないので、ぜひ腕試しにご利用ください!!