デイトラ

デイトラPythonコース徹底レビュー【自動化& 予測ツールを開発できる!】

デイトラPythonコース
本ページにはプロモーションが含まれています。

こんにちは、web系フリーランスとして5年ほど活動しておりますしょーごです。

今回はデイトラ「Pythonコースに挑戦しましたので、徹底レビューしていこうと思います。

この記事でわかること

デイトラPythonコースで学べること、何ができるようになるか、何を作るのか、自分には買いなのか、すべて

しょーご
しょーご
ちなみに筆者はエンジニアですが、Pythonはほとんど知りません。大昔にProgateで数ミリ触った程度の素人です。素人の視点で書いていきます。

無料動画が複数あり!/

しょーご

この記事を書いたのは
しょーご@samurabrass

このブログ「しょーごログ」の運営者。本業でエンジニアとしてサイト制作やシステム開発を数年行っており、ブログとYouTubeで情報発信を行っている。駆け出しエンジニアのコーディング課題添削も行う

Pythonコースの概要
  • YouTube分析アプリ、株価予測アプリなどを実際に開発
  • 実務で使いたいアプリについてプロに相談可能
  • カリキュラムはずっと見放題、講師へ一年間質問可能
  • 数学不要でも取り組めるカリキュラム
  • カリキュラム以外の開発に関する質問もOK!

\Pythonを本気で仕事にしたいあなたへ/

デイトラコース比較
コース名デイトラ
Web制作コース
デイトラ
Webアプリ開発コース
デイトラ
Webデザインコース
デイトラ
ShopifyEC構築コース
デイトラ
動画編集コース
デイトラ
Pythonコース
デイトラ
Webマーケティングコース
デイトラ
ドローンコース
デイトラ
ECクリエイティブコース
学習内容Webサイトの構築Rails,Reactでアプリ開発WebやアプリデザインShopifyサイトの構築と
運用
YouTubeや
ショート動画編集
Pythonや分析スキル広告やSEO
LINEやレポーティング
ドローン空撮
点検業務や農業活用
ECの総合サポート
料金¥129,800¥119,800¥119,800¥79,800¥99,800¥89,800¥109,800¥99,800¥99,800
卒業後の進路例Web制作会社に就職
フリーランスコーダー
Railsエンジニアとして
企業に就職
フリーランスデザイナー
デザイン会社に就職
EC構築フリーランス
Shopifyエキスパートの会社に就職
YouTube,TikTokeの編集者
企業の動画広報担当
映像編集会社へ就職
AI系企業への就職
自社商品の分析に利活用
フリーランスで広告運用
マーケターとして就職
ドローンパイロット
(正社員や業務委託)
ECコンサルやEC企業インターン(紹介あり)
解説記事リンク解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら
公式サイトWeb制作コースWebアプリ開発コースWebデザインコースShopifyEC構築コース動画編集コースPythonコースWebマーケティングコースドローンコースECクリエイティブコース
目次
  1. デイトラPythonコースとは?
  2. デイトラPythonの無料体験する方法
  3. デイトラPythonコース初級編
  4. Pythonでプログラミングする準備をしよう
  5. SEOで狙える大手企業がいないキーワードを自動で収集+結果を書き出そう
  6. 狙うキーワードの競合サイトのタイトル、見出しを分析してSEO上位を狙おう
  7. ページの内部リンクを可視化して、内部SEOを強化しよう
  8. Twitterの色々なデータを分析してフォロワーを増やそう
  9. Pythonコース中級編編
  10. 株価を予測してみよう
  11. GithubとのTwitterとの言語人気を比較して、トレンド言語を探そう
  12. 特定のキーワードで直近で10万回以上再生されバズっている動画をリストアップしよう
  13. 形態素解析を使ってバズってる動画によく使われている決め台詞(ネガポジ分析)
  14. 特定のキーワードで24時間以内に数万回再生されている動画が出たらLINEに通知しよう
  15. 自分の動画がライバルの関連動画にどれぐらい露出され順位はどのくらいか調べよう
  16. 機械学習を使って世界規模の株価予測コンペで賞金をゲットしよう
  17. ここまで読んでくれたあなたへ
  18. デイトラ申し込みから学習開始までの流れ
  19. 他のデイトラコースレビュー

デイトラPythonコースとは?

デイトラ Python

Pythonコースは、Excelシートにまとめる作業の自動化や、Webからの情報収集の自動化、マーケティング分析、業務の効率化や高度な分析ツールなどの開発スキルを学習できるコースです。

学習言語Python、Django
受講場所完全オンライン
期間3ヶ月(カリキュラム閲覧はずっと可能、メンターサポートは1年間)
講師・現役フリーランスエンジニア
主なサポート・毎日13時〜23時のチャットサポート
・不定期でウェビナー開催
・不定期でのオフライン勉強会
料金¥89,800
転職保証なし
デイトラPythonコース YouTube分析アプリ、株価予測アプリなどを実際に開発  実務で使いたいアプリについてプロに相談可能  カリキュラムはずっと見放題、講師へ一年間質問可能  数学不要でも取り組めるカリキュラム  カリキュラム以外の開発に関する質問もOK!

デイトラ「Pythonコース」を一言でいうと、

勉強しながら日常生活にも役立つプログラムを作ることに特化したコース

と言えます。

\業界最安のPythonスクール/

デイトラPythonコースで作るもの

では具体的にどんなものを作るか列挙してみました。

  1. Pythonで特によく使う文法
  2. 業務自動化ができるブラウザの自動化
  3. 人気のツイートが一目で分かるTwitterのデータ分析
  4. 未来の株価を知れる予測
  5. Youtubeの登録者をコスパ良く伸ばすためのデータ分析
  6. 投資コンペで機械学習を用いた株価予測
  7. Tinderの自動化による恋人探し
  8. LINEチャットボット制作
  9. Instagramのフォロワーを伸ばすためのインサイト分析
  10. Djangoを使用したSNS分析アプリ作成
  11. 写真から年齢を判定するLINE診断botを作ろう
  12. LINEで雑談チャットボットを作ろう
  13. DjangoでTwitter / Instagram / YouTubeの自動化コードをアプリ化しよう

なんかわからないけどめちゃくちゃワクワクしませんか笑?

ここがデイトラ「Pythonコース」が他スクールを凌駕する点です。

上級編コースで作るもの例

しょーご
しょーご
通常Python教材と言えば「文法が延々と続く」「犬と猫を画像認識してみよう!」「花の種類を覚えさせよう!」みたいなのばかりで、それもおもしろいですが「だから?」となりやすいのです
しょーご
しょーご
しかしデイトラPythonコースでは「日常ですぐ使えるツールの開発」を行うので、モチベーション高く取り組むことができます!

デイトラPythonコースのメンター

デイトラ「Pythonコース」はカリキュラム作成とメンターにお二人のエンジニアが参画されています。

お二方ともかなり経験豊富なエンジニアで、まにゃpyさんはもともとマーケティングをしており、その自動化でPythonにのめり込んだ方で、様々なPython最新情報を発信されている方です。

はる@プログラミング講師さんはスーパーフルスタックエンジニアで海外で活動されてたりもしている方です。

デイトラPythonコースの料金

デイトラ「Pythonコース」の料金は¥89,800です。

通常プログラミングスクールのPythonコースは20~30万円であることが多い中、10万円を切るのは嬉しいですね!

余談ですが、デイトラが全体的に良心的な価格で講座を提供できているのは、広告費をかけずともTwitterやYouTubeなど無料のSNSで集客できているからだそうです。

デイトラPythonの無料体験する方法

まずはデイトラから「無料で講座を体験する」のボタンを押してください。

デイトラ申し込み ログイン

その後、デイトラに登録してください(お金はコースを購入しない限り、かかりません)

デイトラ申し込み ログイン

その後、管理画面に入ったら、下の方の「コース一覧」から気になるコースを選べば、複数の無料講義動画を閲覧することが可能です!

無料動画が複数あり!/

デイトラPythonコース初級編

デイトラPythonコース
初級編で作るもの、できること
  1. 基礎文法
  2. ブラウザ自動操作→キーワード自動収集
  3. 狙うキーワードの競合サイトのタイトル、見出しをPythonに自動で抽出させ、スプレッドシートに書き出す
  4. ページの内部リンクを可視化して、内部SEOを強化
  5. Twitterの色々なデータを分析してフォロワーを増やそう
  6. 時系列予測して伸びるキーワードを分析

Pythonでプログラミングする準備をしよう

DAY01 はじめに

環境構築と基礎文法を学びました。

やったこと
  1. python環境の構築
  2. fotmatメソッド、f-string
  3. stripメソッドとlen関数、replaceメソッド
  4. 辞書、リスト、タプル

こういった基礎文法は「退屈だなぁ」と思うかもですが、実際にPythonでめちゃくちゃ使うもののみを集積していますので、

ここで理解を固めておきます。

DAY02 条件分岐や繰り返し、モジュールのインストールについて学ぼう

やったこと
  1. 条件分岐と繰り返し(for,while,if文、elif文、else文)
  2. 例外の処理(try except文)
  3. 組み込み関数、モジュール、import

引き続きPythonの基礎を学んでいきます。

特にモジュール、パッケージ、ライブラリについてはこのコースで多用していきますので、しっかり理解していきます。

・モジュール
.pyファイル
・パッケージ
モジュール詰め合わせフォルダ
・ライブラリ
モジュールやパッケージ詰め合わせ群

外部ライブラリをターミナルでインストール(pip install)し、VSCodeでモジュールをimportして機能を使えるようにします。

しょーご
しょーご
JSのnpm,RubyのGemなんかに似てるかもね

DAY03 関数について学ぼう

同じ処理は何度も出るようであれば、関数化するのが一般的です。

HTML,CSSなどにおいても何回も同じ処理が出てくるようなら同じclass名に揃えるかと思いますが、同じようなことです。

DAY04 エラーが起こった時の対処法を知ろう

プログラミングをしていると、エラー文と頻繁に遭遇することになります。DAY04にして自分は既に以下のようなエラー文を見ています。

  1. SyntaxError(文法)
  2. IndentationError(インデント)
  3. TypeError(型)

このパートでは主要なエラー文を予習しておきます。プログラマーにとってエラー文はヒントを教えてくれる友達なので、意味をしっかり理解しておきましょう。

\業界最安のPythonスクール/

SEOで狙える大手企業がいないキーワードを自動で収集+結果を書き出そう

DAY05 Pythonによるブラウザ自動操作①

やったこと
  • seleniumでGoogleのトップページを開く
  • seleniumを使ってGoogleから特定キーワードで検索する

seleniumというライブラリでブラウザを自動操作していきます。

作成したpythonコードを実行したら、Chromeブラウザが自動で立ち上がり、キーワードが入力されて検索が行われたのでシンプルにすごいと思いましたw

DAY06 Pythonによるブラウザ自動操作②

やったこと
  • 検索結果の1位から10位までのURLを取得
  • プログラムの全体像の解説、with構文を使用したテキストファイルの読み込み

検索結果の1位から10位までのURLを取得」と聞くと聞こえは難しそうですが、Chromeブラウザはseleniumで簡単にアクセスできるので、

結果の取得をDAY04までに習った基礎文法を用いながら書いていきます。

ほんの少しだけコードをお見せします。

# '検索キーワードリスト.txt'ファイルを読み込み、リストにする
with open('検索キーワードリスト.txt') as f:
    keywords = [s.rstrip() for s in f.readlines()]

しょーご
しょーご
予め用意しておいた検索キーワードリストを読み込んでキーワード一個一個を変数keywordsに入れる処理だよ。

DAY07 Pythonによるブラウザ自動操作③

やったこと
  1. 正規表現の基礎、正規表現チェッカーの使い方
  2. 正規表現の最長一致と最短一致

文章から文字列やテキストを取り出す時にとっても便利な正規表現を学びます。

しょーご
しょーご
身近な例だと、フォームの郵便番号チェックとかも正規表現で判断してるよ!

/^d{3}-d{4}$/

DAY08 Pythonによるブラウザ自動操作④

pythonは標準で「re」という正規表現用モジュールを含んでいるので、reモジュールを使用していきます。

text = "りんごをひとつ、みかんをふたつ、パイナップルをみっつ食べました"
m = re.search("(ひとつ|ふたつ|みっつ)", text)
print(m.group())
# この場合一番最初に一致した「ひとつ」が返される

このreモジュールを使い、予め読み込んでおいた企業ドメインを正規表現で判断して、その企業ドメインが含まれている場合は除外するというものです。

今回やりたいこととして、SEOで狙える大手企業がいないキーワードを自動で収集+結果を書き出そう

というものなので、リストアップしておいた企業ドメインの記事は正規表現で除外する必要があるということです。

DAY09 プログラムを関数化してみよう

コードを関数化するなどしたら、いよいよ実行していきます。

以下のTweetがわかりやすいかなと思います。

大手がいないキーワードを一覧にまとめてくれるので、非常にありがたい限り。

少し時間がかかるので、Pythonがキーワード抽出を行っている間はお昼を食べていました

狙うキーワードの競合サイトのタイトル、見出しを分析してSEO上位を狙おう

つくるもの

複数のキーワードで検索して、それぞれのキーワードのグーグル検索の見出しの1位から10位までのタイトルと説明文、URL、見出し(H1タグ~H5タグ)を取得するプログラム

それでできること

上位サイトの「タイトル」や「見出し」、を見ることによってそのキーワードで記事を書く際に満たすべきトピック(話題)を網羅的に把握することができる。

そして、その分析したトピック+αの記事を書くことでユーザーに刺さる記事を書くことができ、上位表示によりつなげやすい記事を書くことが可能となる。

つまり、このプログラムを使えば「あるキーワード」で記事を書く際に必要なトピックを一覧でパッと把握することができるようになり、記事調査の時間を時短することができる

デイトラPythonコース

DAY10 Googleスプレッドシートの準備

まずは使う外部ライブラリをインストールしていきます。

  1. requests
  2. BeautifulSoup
  3. gspread
  4. oauth2client

またAPIについても学んでいきます。

APIはPythonではデータ収集する際によく使用するので、どのようなものなのか、どのように使うのかを動画を見てしっかり理解します。

しょーご
しょーご
簡単に言うと、例えばTwitter APIならTwitterに蓄積されているデータや機能を自分の開発のために拝借することができるよ!

ここではスプレッドシートのAPIキーを取得しました。

DAY11 Pythonによるブラウザ自動操作

スプレッドシートを操作するための準備をしていきます。

引き続きseleniumを使ったブラウザ自動操作のコードを書いていきます。

  1. 検索ボックスをHTMLから取得
  2. 検索ボックスにキーワードリストから取得したキーワードを一つずつ入力
  3. 検索実行

この流れがだいぶ理解できるようになってきました。

DAY12 条件分岐と繰り返しを使って要素を取り出してみよう

検索結果からtitle.url.descriptionなどを取得するために、検証ツールで要素を調べていきます。

ここの値を検索結果から取得して、用意しておいた空の辞書(オブジェクトのようなもの)に入れてあげます↓

items = {
    'keyword': keyword,
    'title': ['タイトル'],
    'url': [],
    'description': ['説明文'],
    'h1': [],
    'h2': [],
    'h3': [],
    'h4': [],
    'h5': []
}

DAY13 スクレイピングをしてみよう

使用するライブラリ

requests
HTTP通信用のPythonライブラリであり、HTMLを取得する際にとても役立ちます。

BeautifulSoup
requestsで取得したHTMLを解析して情報を取り出す際にとても役立ちます。

スクレイピングを行う際は、この2つのライブラリをセットで使うことが多いので覚えておきます。

ここでは「記事中のh1~h5タグを自動取得する」コードを書いていきます。

DAY14 Googleスプレッドシートに結果を書き込んでみよう①

ここではスプレッドシートに結果を書き込むための準備を行います。

  1. 準備しておいた認証情報でPythonでログイン処理
  2. 作っておいたワークブックを参照
  3. ワークシートを作成

これらを全部Pythonで行います。ほとんどお決まりの処理なので、覚える必要はないです。

DAY15 Googleスプレッドシートに結果を書き込んでみよう②

デイトラPythonコース

最終的にこのようなリストを作成いなければならないので、

  • 順位
  • タイトル
  • URL
  • 説明文
  • H1~H5タグ

をシートに挿入していく処理を書いていきます。

コードを一部だけチラ見せするとこんな感じです。

try:
        # 共有設定したスプレッドシートのシート1を開く
        workbook = gc.open_by_key(SPREADSHEET_KEY)
        # ワークシートを作成(タイトルがkeywordで、50行、50列)
        worksheet = workbook.add_worksheet(title=items['keyword'], row='50', cols='50')
        # シートが作成されたらフラグを立てる
        flag = True
        # スプレッドシート書き込み処理

        # キーワードの書き込み
        worksheet.update_cell(1, 1, '検索キーワード')
        worksheet.update_cell(1, 2, items['keyword'])
        # 1秒待機
        time.sleep(1)
        # 順位の書き込み
        column = 2
        worksheet.update_cell(2, 1, '順位')
        for ranking in range(1, 11):
            worksheet.update_cell(2, column, ranking)
            column += 1
        # 3秒待機
        time.sleep(3)
        # 「タイトル」の書き込み
        column = 1
        for title in items['title']:
            worksheet.update_cell(3, column, title)
            column += 1
        # 3秒待機
        time.sleep(3)

DAY16 プログラムを関数化してみよう

今回の処理の流れと関数化のメリットをわかりやすく伝えるために、講義動画のスクショを使わせていただこうと思います。

デイトラPythonコース

これまで処理を細切れに書いてきましたが、このように処理の塊ごとに関数化することによって、処理が置いやすくなったり、可読性保守性がよくなったりします。

狙うキーワードの競合サイトのタイトル、見出し(h1~h5)をPythonに自動で抽出させ、スプレッドシートに書き出す処理完成!

下は「JavaScript 勉強方法」のキーワードを用意してPyhtonに情報を持ってきてもらってスプレットシートにかき出した結果です↓

デイトラPythonコース

ページの内部リンクを可視化して、内部SEOを強化しよう

デイトラPythonコース
つくるもの

ホームページの内部リンクを可視化するツール

それでできること

内部リンクの数とどんなページに内部リンクを送っているのかを可視化することで、内部SEO強化につながる

しょーご
しょーご
例えばこのページにも複数内部リンクがあるよ。例えば「関連記事」「人気記事」または以下のような自サイト内の記事リンクは全部内部リンクだよ

DAY17 Pythonでページの内部リンクを取得してみよう①

今回新しく使う外部ライブラリ
  1. urllib
  2. networkx
  3. matplotlib

ここでは今回分析するwebサイトページのURLなどを正規表現で取得するコードを書いていきます。

DAY18 Pythonでページの内部リンクを取得してみよう②

内部リンクを正規表現で取り出していきます。

正規表現チェッカーを使うとわかりやすいですね。

デイトラ
弊ブログなら^https://shogo-log.com.|^/[^/].|^//shogo-log.*で取り出せます。

DAY19 Pythonでネットワーク図を書いてみよう

ネットワーク図の仕様を学んで、networkxモジュールを使って図を描画していきます。

  1. グラフオブジェクトの作成
  2. 頂点と辺や経路の追加
  3. レイアウトの指定
  4. ネットワーク図描画

デイトラPythonコース

しょーご
しょーご
ノード、エッジ、パス、など概念を掴むのが少し難しいかもだけど、networkxは簡単に使えるよ

この段階で汚いですが、ネットワーク図を描画することができました。

デイトラPythonコース
このままでは見づらい

DAY20 ネットワーク図を見やすく整えていこう

さきほどのネットワーク図のスタイルを整えたり、関連性の高い内部リンクのみに絞って表示する処理を書いていきます。

  1. 正規表現でhttps://shogo-log.comの部分削除(かぶるため)
  2. feedやprofile,aboutなど内部リンクと関係性低いリンクを削除

DAY21 エラーを素早く解決するために、デバッグについて学び、プログラムを関数化してみよう

まずはデバッグについて学びます。

デバッグの流れ
  1. ブレークポイントを置く
  2. 一行一行実行していく
  3. 変数などの中身を見る

デバッグはPythonに限らずプログラミング、web制作をするなら避けては通れない作業です。

デイトラPythonコース
VSCodeを用いて一行ずつ処理の流れを追っていく

デバッグがわかれば、ググって仮に答えが見つからなくても「どこでバグが起こっているかわかる」という面で、自己解決力が高くなります。

デイトラPythonコース
デイトラPythonコース
最終的にこのような綺麗なネットワーク図ができました

Twitterの色々なデータを分析してフォロワーを増やそう

デイトラPythonコース
つくるもの
  1. Twitter APIを使って特定キーワードで期間を指定してつぶやきを取得
  2. ツイートを感情分析してみよう
  3. 機械学習を用いていいねの伸びやキーワードの伸びを予測してみよう
できること

サービスの需要を調べることが可能になります。

サービスの需要を調べることができれば、Twitterでどのようなサービスが受けるのか?また、サービスを伸ばすためにはどのようなつぶやきをしていけばいいのか分かるようになります。

DAY22 PythonからTwitterを操作しよう

Twitter APIを取得する前にWeb APIとはどのようなものか学んでいきます。

例えばAPIを利用するには「APIキー」というものが必要になります(申請して手に入れる)
利用者識別番号のようなもので、これがないとデータにアクセスできません。

DAY23 Twitter APIを取得しよう

デイトラPythonコース

個人的に割と鬼門でした笑

TwitterAPIは審査が厳格な上に、利用する理由やデータをどのように使うかなどを数百語の英語で送り、その後審査を通過しなければなりません。

私はDeepL翻訳で乗り切りました笑

デイトラPythonコース DeepL Twitter API

自分の場合は送信してから30秒以内に返信があり、すぐにAPIキーを取得することができたので、

文字数以上をきちんと入力すれば自動的に許可が降りるのではと思いました。

DAY24 Twitter APIを使って特定のキーワードで期間を指定してつぶやきを取得してみよう①

今回使うライブラリ
  1. pandas(データを表にしてまとめてくれる)
  2. tweepy(Twitter APIの取り回しを簡単にしてくれる)

ここでは試しに、「デイトラ」のキーワードで「直近一週間でリツイートといいねが合計10以上のツイート」を集計してみます。

デイトラPythonコース

DAY25 Twitter APIを使って特定のキーワードで期間を指定してつぶやきを取得してみよう②

DataFrameというもの(表)を作成していきます。

デイトラPythonコース
  • ユーザー名
  • ユーザーID
  • RT数
  • いいね数
  • 日時
  • 本文

これらをDataFrameに整えていきます。

df = pd.DataFrame({'ユーザー名': list_username,
                   'ユーザーID': list_userid,
                   'RT数': list_rtcount,
                   'いいね数': list_favorite,
                   '日時': list_date,
                   '本文': list_text
                   })

しょーご
しょーご
DataFrame&pandasは書き方が特殊なので慣れが必要なのですが、めちゃくちゃ使うみたいなので、慣れていきます。

DAY26 Twitter APIを使って特定キーワードで期間を指定してつぶやきを取得してみよう③

pandasのメソッドで、作成したデータをCSVに出力してあげて完成です。デイトラのキーワードで検索をかけてみました。

DAY27 ツイートを感情分析してみよう①

Pythonによるネガポジ分析の方法

ツイートを感情分析するとは、つまるところネガポジ分析となります。

ネガポジ分析とは、ある文章や単語がネガティブかポジティブかその度合いを数値で調べる

という意味です。

どの単語がネガティブでどの単語がポジティブかは「極性辞書」というものに記載されているため、自分で用意する必要はありません。

デイトラPythonコース
例えば「いのち」はpでポジティブ、「いびき」はnでネガティブ
使うライブラリ

janome(形態素解析をする)

DAY28 ツイートを感情分析してみよう②

最終的にこのようなものができました。

また、ここで取得できたツイートは自動でcsvにしてくれます。

デイトラPythonコース

DAY29 機械学習を用いていいねの伸びやキーワードの伸びを予測してみよう①

使用するライブラリ
  1. pystan
  2. prophet
  3. plotly

ここでVSCodeではなく、「Jupyter Lab」という実行環境でコードを書いていくことになります。

デイトラPythonコース
一行一行実行しながらコードをかけるので、わかりやすい

ここで、pandasのメソッドでDataFrameを自由に操作できるように練習しておきます。

デイトラPythonコース

DAY30 機械学習を用いていいねの伸びやキーワードの伸びを予測してみよう②

初級編最終日は、Prophetを利用して実際にNocodeというキーワードの伸びを予測していきます。

機械学習の流れ
  1. データを集める
  2. データの整形(規定のDataFrame)
  3. 機械学習の手法の選択(今回はProphet)
  4. データを学習させてモデルを作る(fit、make_future_dataframeメソッド)
  5. 出来上がったモデルを使って予測(predictメソッド)

Prophetで予測できるようにDataFrameを整形していき

デイトラPythonコース

機会学習自体は秒で終わりました笑

デイトラPythonコース

最終的にグラフに描画します。

デイトラPythonコース

しょーご
しょーご
NoCodeのいいね数の伸びを予測しているよ、黒い点が実数で青いラインが予測値です

ちなみに「YouTube登録者数」「Twitterフォロワー数」も独自に時系列予測してみました。

時系列予測 youtube チャンネル登録者数
youtube
時系列予測 twitter フォロワー数
twitter

自分でCSVを用意できればなんでも測れます!!

Pythonコース初級修了✨ Twitterの投稿からいいね数の予測を やりましたが 予測できるのはいいですね! いろんな予測の仕方をコードで書けるようになれたらと思いました😊 GASも勉強して使い分けできるように したいです #デイトラ

Pythonコース中級編編

デイトラPythonコース
作るもの、できること
  1. 株価を予測してみよう
  2. GithubとのTwitterとの言語人気を比較して、トレンド言語を探そう
  3. 特定のキーワードで直近で10万回以上再生されバズっている動画をリストアップしよう
  4. 形態素解析を使ってバズってる動画によく使われている決め台詞(ネガポジ分析)
  5. 特定のキーワードで24時間以内に数万回再生されている動画が出たらLINEに通知しよう
  6. 自分の動画がライバルの関連動画にどれぐらい露出され順位はどのくらいか調べよう
  7. 機械学習を使って世界規模の株価予測コンペで賞金をゲットしよう

株価を予測してみよう

DAY31 <未来の株価を予測してみよう>株価のデータを取得しよう①

ソニーの株価を予測するために、これまで使ったseleniumとProphetを使っていきます。

株価の予測には「株価CSVデータ」が必要ですが、このCSVダウンロードからPythonで自動で行っていきます。

しょーご
しょーご
手動でデータは準備しないのがいいですねw

DAY32 <未来の株価を予想してみよう>個別株価の予測②

データ取得の流れ
  1. まずは2013年から2020年までの株価CSVを取得する
  2. その後取得したCSV(DataFrame)を縦に結合し、一つのCSVとして出力

これにて検証用のデータが揃いました。

デイトラPythonコース

DAY33 <未来の株価を予測してみよう>個別株価の予測②

ここまででデータの準備はできたので、あとはProphetで時系列予測していきます。

ソニーの今後3年の株価予測をしてみました。

デイトラPythonコース

GithubとのTwitterとの言語人気を比較して、トレンド言語を探そう

Githubとはプログラミング言語のソースコード管理システムで、どの言語で活発に開発されているかすぐに分かります。

DAY34 Githubからデータを収集しよう①

流れ
  1. Github APIを使ってスター数の多いリポジトリを集計
  2. 人気リポジトリの言語を判別し、データフレーム化
  3. データをスター数の多い順に並べ替え

Githubからアクセストークンを取得してアクセスしてデータをもってこれるようにしておきます。

しょーご
しょーご
余談ですが、こうした APIキーやアクセストークンは外部に見られると不正利用されて色々終わります、保管には気をつけましょう

DAY35 Githubからデータを収集しよう②

言語のいいね数ランキングは以下のようになりました。

デイトラPythonコース
 pandasでDataFrameにすればこのように見やすい表形式で表せます。

しょーご
しょーご
はぇ〜 TypeScriptはJavaScriptの上位互換だから、実質JavaScriptさん一強ってかんじですねぇ

DAY36 <課題>Twitterrから言語ごとのデータ収集をしよう

ここでPythonコース初めての課題です。

課題

Twitter APIを使用して、過去7日間のプログラミング言語のいいね数のデータを取得

与えられるヒントは以下のようなものです。

ヒント
  1. TwitterAPI情報のセット
  2. for文を使って言語ごとにTwitterデータを取得していく
    tweepy.Cursorメソッドを使う
  3. ツイートのデータdataから言語ごとのデータフレームdfを作成
    辞書の形またはリストの入れ子の形で作成
  4. 言語名といいね数のデータフレームを(言語ごとに)作る
    (1)言語ごとにいいね数の総和を取り、空のリストに追加→df[‘いいね数’].sum() を使う
    (2)言語名といいね数のリストから辞書の形でデータフレームを作る
  5. データフレームをいいね数が多い順に並べ替えて出力(print)
    df.sort_values(by = ‘いいね数’, ascending=False) を使う

DAY37 <課題解説>Twitterから言語ごとのデータを収集しよう

コードリーディングについて

以下金言だと思いました。

意外とこれは盲点なんですが、慣れていない方はコードを上から順番に読もうとしてしまいます。

大体がめちゃくちゃ読みにくいと思います。

その理由は上に書いてあることはほとんど下で使うための準備だからです。

ですので、「これはなぜimportしてるのか?」とか、「この変数は何に使うのだろう?」とか見ただけでは分からないことが多いと思います。

実は、「コードは(作りたいもの)結論が最後に書いてあることが多いです。」

ですので、最終的に何を作りたいのか?その結論をまず見つけます。

そしてその結論はmain()関数の最後に書いてあることが多いんです。

Pythonコース DAY37 教材より

他人のコードを見て参考にするとき、この考えは特に役立つと思います。

取得できたデータと考察

以下のようなデータが取れました。

Twitter プログラミング言語 いいね数

さきほどのGithubとは全然違った結果になっていますね。

デイトラPythonコース
Tweetは日本語のみ対象としています、日本人はCSSスキ?

また独自にTwitterいいね数をグラフにしてみました。

デイトラPythonコース

しょーご
しょーご
僕の考察だけど、難しい話ほど関心を得るのは難しい、つまりビジュアルでもわかりやすいCSSがTwitterでは受けやすいと推察しているよ

特定のキーワードで直近で10万回以上再生されバズっている動画をリストアップしよう

やること

特定のキーワードで直近で10万回以上再生されている動画をリストアップする

  1. YouTube APIキーを取得する
  2. YouTube APIの基本的な使い方を学んでいく
  3. 特定のキーワードでバズっている動画のリストアップ①
  4. 特定のキーワードでバズっている動画のリストアップ②
  5. 結果をグーグルスプレッドシートに書き込む
デイトラPythonコース
完成形はこんな感じです

DAY38 YouTube APIを取得しよう

このパートではYouTube APIを取得するのですが、初期状態だと使えるリクエスト数が少ないです。

なので、YouTube APIの上限を増やす(45倍にする)ために申請するところまでやっていきます。

上限申請はYouTube公式と英語でやり取りしないといけない上に、作成するアプリ紹介の動画も撮って送らないといけません。また審査の時間も数日かかります。

ただ上限をあげないとデバッグすらできないほど貧弱なので、事実上必須です。

今後カリキュラムの変更で最初の方にAPI関連の申請は移動する可能性があります。

YouTube API上限申請方法

多くの人がここで苦戦するかと思いますので、私の公式とのやり取りを残しておきます。

申請フォーム送信後の返信

youtubeAPI上限申請方法
youtube側
返信の意味
  1. どうあなたのサービスがYouTube API使うか動画で見せろ
  2. サービス仕様のドキュメント用紙しろ

youtubeAPI上限申請方法
私の返事
返信の意味

動画とドキュメントを添付しましたが、自分で用意するのが難しくデイトラに載っていたpdfと、動画はデイトラのアプリ動作動画のスクショでそのまま送ってしまいました(作るのは同じアプリなので問題ないはず…というよりそれ以外の手段がない)

youtubeAPI上限申請方法
youtube側
返信の意味
  1. スクリーンキャストで取得されてるデータがYouTube APIからのか確認させて
  2. 集めたデータで何するか教えて?

youtubeAPI上限申請方法
私の返信
返信の意味
  1. YouTube APIからのデータですよ、youtube.search.listってメソッド使ってるでしょう?
  2. データ集めて見て分析するだけです。スプシに入れて終わりです。

しょーご
しょーご
ここらへんでめんどうになってきて、ここで駄目なら諦めようと考えていました。

youtubeAPI上限申請方法
youtube側

そして14日後

youtubeAPI上限申請方法
youtubeの承認メッセ
返信の意味

上限申請認めるよ

しょーご
しょーご
ようやく認められ、この間一ヶ月でした。多分向こうが折れた形ですw

DAY39 Youtube APIの基本的な使い方を見ていこう

DAY40 特定のキーワードで10万回以上バズっている動画をリストアップしよう①

DAY41 特定のキーワードで10万回以上バズっている動画をリストアップしよう②

ここまではAPI経由で取得して得られたデータをDataFrameにして整形していきます。

しょーご
しょーご
このパートは記述量が多いので、タイポや抜け漏れがあったりしてめちゃデバッグしました

DAY42 結果をグーグルスプレッドシートに書き込みしよう

実行して得られた情報(DataFrame)をグーグルスプレッドシートに書き込むプログラムを作成していきます。

書き込む処理はこれまでも使用した「gspreadモジュール」を使用していきます。

しょーご
しょーご
私はYouTubeにweb制作関連で投稿しているので、まずweb制作で直近再生されている動画やいけてるチャンネルを調べてみました!

その後、「フリーランス」のキーワードで検索をかけた結果、50件近くヒットしました。動画のトピックも様々で、多用な攻め方が見えますね。

デイトラ Python YouTube分析ツール

\業界最安のPythonスクール/

形態素解析を使ってバズってる動画によく使われている決め台詞(ネガポジ分析)

やること

今まで作成したプログラムを参考にバズったYoutubeのタイトルのネガポジ分析をしていきます!

これによって、バズる動画タイトルにはどのような傾向があるのかを分析することができます。

デイトラ
まこなり社長の動画はポジティブネガティブどちらのタイトルの方が再生されているのか!?

レッスン内容

DAY43 バズった動画のタイトルを形態素解析して入っているキーワードの割合を調べる

DAY44 バズった動画のタイトルをネガポジ分析してプラスかマイナスかどちらがバズり安いか調べてみよう①

DAY45 バズった動画のタイトルをネガポジ分析してポジかネガかどちらがバズり安いか調べてみよう②

しょーご
しょーご
前回のバズってる動画がわかる機能にネガポジ分析機能をつけるという感じですね

今回は

  1. プログラミングという単語で
  2. 一年で10万回再生されている動画

を検索対象に、ネガポジ分析を行いました。

ネガポジ分析 Python YouTube

基本的にポジティブ度が多いですね。

特定のキーワードで24時間以内に数万回再生されている動画が出たらLINEに通知しよう

やること

特定のキーワードで24時間以内に数万回再生されている動画のLINE通知をしてくれるプログラムを作成していきます

しょーご
しょーご
PythonによるLineの通知を使うために、Line notifyを利用し、herokuを使い定期実行させていきます

DAY46 LINE Notifyの設定をしよう

DAY47 バズった動画を調べて通知できるようにしてみよう

DAY48 herokuを使って定期実行できるようにしよう

作ったもの

「フリーランス」というキーワードで一週間で1000以上再生された動画を毎日通知してくれます。

python line自動通知

これによって、今どんな動画が流れ着てるのか判断し、動画投稿することができます。

heroku 定期実行
定期実行はherokuで可能だが…

MacBookProの場合はBetter Touch Toolでプログラムを定期実行できるので、自分のPCでも定期実行することができます。

Better Touch Tool 定期実行 スクリプト
Better Touch Tool Python
LINEに通知ボタンを押すことでもプログラムを起動できる

自分の動画がライバルの関連動画にどれぐらい露出され順位はどのくらいか調べよう

やること

自分の動画がどんなライバルの関連動画に表示されいているのか?をリアルタイムでデータとして取得できるコードを作成

しょーご
しょーご
ちなみに、本教材の激アツポイントはこのパートです。

関連動画とは?

下記の位置の動画のことです。

Python  youtube関連動画 調査
これは弊チャンネルの例です

私たちのような「YouTube動画投稿者」たちは、自分の動画はライバルチャンネルにどれぐらい関連動画として露出しているのかを知る術がありません。

わからないこと
  1. いつ関連動画に載ることができたのか?
  2. 今は誰の関連動画に載っているのか?
  3. 相手のチャンネル名は?動画タイトルは?
  4. 再生回数はどれだけなのか?

YouTube Analyticsでは見れないのです。

しかし自分のチャンネルを伸ばすには大変有用な情報になります。

これらの情報で流入元の動画を見ている視聴者に合わせて自分の動画を最適化していくことが可能になります。

どんな話題を動画で話すべきなのか?、サムネイル、タイトルに入れるキーワードは?動画の長さはどれぐらいなのか?

などを流入元の動画を見て調査して、それに合わせて対策していくことが可能になります。

つまり今回のプログラムを書くことができれば

YouTuberは自分のビジネスに役立つし

プログラマーとして動画投稿者にツールを販売することもできる

というわけなのです。

デイトラPythonコース
激アツである
流れ
  1. YouTube APIでライバルの更新動画を収集する
  2. YouTube APIでライバルの動画の関連動画を収集する
  3. 関連動画の中に自チャンネルの動画があるかを調べ、もしあれば関連動画ないの順位と動画情報を収集する

DAY49 自分の関連動画のタイトルを抽出してみよう

DAY50 ライバルの動画の関連動画を抽出してみよう①

DAY51 ライバルの動画の関連情報を取得してみよう②

機械学習を使って世界規模の株価予測コンペで賞金をゲットしよう

DAY52 Numeraiについて学ぼう

DAY53 Numeraiに登録しよう

DAY54 機械学習手法について学ぼう

DAY55 トレーニングデータとトーナメントデータを読み込もう

DAY56 Numeraiに予測を提出しよう

しょーご
しょーご
この先は今後更新予定です

\業界最安のPythonスクール/

ここまで読んでくれたあなたへ

デイトラ 評判

こんな長い記事の最後まで丁寧に読んでいただき、本当にありがとうございます!

ここまでスクロールしてくれるユーザーは10%未満の方しかおらず、大変うれしく思っております!

実は、この記事のリンクはすべて「アフィリエイトリンク」になっています。

この記事から商品を購入していただけると、いくらか私にキックバックがあるというものです。

まさひろくん

まあこの記事の内容が参考になったから、申込みはこの記事からしてあげるよ

そう思っていただけたら、この記事のリンクからお申し込みいただけたら、とてもうれしく思います。

このブログは「それが知りたかった!」をモットーに運営しており、今後の活動のモチベーションに繋がります。

しょーご

一応リンクを下に置いておきますので、もし良ければ…!!
Twitter(@samuraibrass)にリプをいただけたら、感謝と激励します!

\ここまでありがとうございます!/

デイトラ申し込みから学習開始までの流れ

まずはデイトラで申込みを行います。

デイトラ申し込み ログイン
デイトラ申し込み ログイン

その後、受講したいコースを選択します。

デイトラ申し込み ログイン

その後「クレカ支払い」か「銀行振込払い」か選択します。

しょーご

銀行振込まで対応しているオンラインスクールはほとんどないので、助かりますね!

デイトラ申し込み ログイン
デイトラ申し込み ログイン
クレカの場合は支払い情報を入力して、支払う

支払い後は「申し込み完了メール」が来るので、Slackに参加できるのと、講座も受講できるようになります。

無料動画が複数あり!/

Pythonコースの概要
  • YouTube分析アプリ、株価予測アプリなどを実際に開発
  • 実務で使いたいアプリについてプロに相談可能
  • カリキュラムはずっと見放題、講師へ一年間質問可能
  • 数学不要でも取り組めるカリキュラム
  • カリキュラム以外の開発に関する質問もOK!

\Pythonを本気で仕事にしたいあなたへ/

コース名デイトラ
Web制作コース
デイトラ
Webアプリ開発コース
デイトラ
Webデザインコース
デイトラ
ShopifyEC構築コース
デイトラ
動画編集コース
デイトラ
Pythonコース
デイトラ
Webマーケティングコース
デイトラ
ドローンコース
デイトラ
ECクリエイティブコース
学習内容Webサイトの構築Rails,Reactでアプリ開発WebやアプリデザインShopifyサイトの構築と
運用
YouTubeや
ショート動画編集
Pythonや分析スキル広告やSEO
LINEやレポーティング
ドローン空撮
点検業務や農業活用
ECの総合サポート
料金¥129,800¥119,800¥119,800¥79,800¥99,800¥89,800¥109,800¥99,800¥99,800
卒業後の進路例Web制作会社に就職
フリーランスコーダー
Railsエンジニアとして
企業に就職
フリーランスデザイナー
デザイン会社に就職
EC構築フリーランス
Shopifyエキスパートの会社に就職
YouTube,TikTokeの編集者
企業の動画広報担当
映像編集会社へ就職
AI系企業への就職
自社商品の分析に利活用
フリーランスで広告運用
マーケターとして就職
ドローンパイロット
(正社員や業務委託)
ECコンサルやEC企業インターン(紹介あり)
解説記事リンク解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら解説記事はこちら
公式サイトWeb制作コースWebアプリ開発コースWebデザインコースShopifyEC構築コース動画編集コースPythonコースWebマーケティングコースドローンコースECクリエイティブコース

他のデイトラコースレビュー

即戦力になれるコーディング課題

HTML初心者からWordPress実案件レベルまでのコーディング演習課題を「専用ページ」にて公開しています。

デザインカンプからのコーディング練習課題【オリジナルポートフォリオを準備できるようになりました】
  1. Figma,Photoshopデザインからのコーディング
  2. サーバーアップロードでサイト公開
  3. プロによる最大3回の表示確認特典
  4. レビュー返しは爆速
  5. 2024年にデザイン刷新!被らないポートフォリオ

初級編」は初めてデザインからコーディングする方向け
中級編」はJavaScriptやjQueryの練習
上級編」はWordPressの実案件を模擬体験できるレベル感にしています。

中級者の方には高難易度課題を詰め合わせた「即戦力セット」も出しています。

全課題で「実務レベルの、プロの厳しいレビュー」を受けられるようにしています。

また、2024年には随時デザインの刷新をしており、完全リニューアル!!

他者と差をつけられるポートフォリオが準備できます!

コーディング課題 中級 中級Ex
しょーご

制作会社も使用する専用レビューツールで分かりやすく添削していきます!

基本的に「まとめて購入」していただくとかなりお得になります↓

コーディング課題
まとめて購入

全部盛りこちらから
中級以上こちらから
即戦力編こちらから

コーディングは書籍だけではなかなか実力がつかないので、実務レベルのレビューを受けて自身をつけたい人は是非挑戦してみてください!

しょーごログ-コーディング課題のレビュー
レビューの様子

\課題の購入はこちらから/

応援して頂ける方へ

ご寄付を頂けると今後の更新の励みになります!

🍺 ビールをプレゼントする

});