■掲示板に戻る■ ■過去ログ 倉庫一覧■
自動スペースDLアプリを構成して来るキャストスペースに備えよう
-
以下のtwspace-crawlerってやつをインストールして起動しとくと
リストアップしたTwitterアカウントのスペースを自動で検知して
開始・終了通知とDLをしてくれるっぽい(自分は素人なので原理は不明)
https://github.com/HitomaruKonpaku/twspace-crawler.git
自分は 24 時間起動したくて以下のように構成してみた
少しだけ Linux の知識がいります
■Google Cloud Platform の Compute Engine を構成する
以下の条件を満たせばずっと無料で使える仮想環境が作れるとのこと
・1 つの非プリエンプティブル e2-micro VM インスタンス(1 か月あたり)。次の米国リージョンのいずれかで利用できます。
→オレゴン: us-west1
→アイオワ: us-central1
→サウスカロライナ: us-east1
・30 GB-月の標準永続ディスク
・1 GB の北米から全リージョン宛ての下りネットワーク(1 か月あたり、中国とオーストラリアを除く)
詳細は以下など参考に構築する
これから始めるGCP(GCE) 安全に無料枠を使い倒せ
https://qiita.com/Brutus/items/22dfd31a681b67837a74
自分は OS はデフォルトで選択されてた Debian 12 で作った
実は Oracle Cloud Infrastructure の方が高性能な無料 VM を使えるらしいけど
自分は上記を作った後に知った
■仮想環境に必要なものをインストールする
twspace-crawler のページの README にある FULL INSTALLATION のところを見ると必要なものとコマンドが書いてある
VM にログインして以下らへんをインストールする
・nodejs
・ffmpeg
・npm
・twspace-crawler
・pm2
上の参考ページで SSH 認証鍵の設定とかしてるけどめんどくさそうだったので
自分の PC(Windows) に gcloud sdk をインストールして VM に接続してる
自分の PC でコマンドプロンプトを起動して gcloud compute ssh コマンドで接続できる
-
■twspace-crawler の設定をして起動する
twspace-crawler のページの README にある FULL INSTALLATION に従って以下を作成
・env ファイル
→twitter のログイン情報?を保存しておく設定ファイル。Unofficial API 使った
ファイル名は自分は「tw.env」にしてログインユーザーのホームディレクトリに置いた
以降のファイルも全部ホームディレクトリ
・config.yaml
→実行用ファイル?監視したい twitter アカウントをリストする
git hub にサンプルあるからそのまま使って監視したいアカウント名だけ変えれば OK
ここに書いてある Webhook ってのも設定すると監視してるアカウントが
スペース始めた時と終わった時に Discord の設定したサーバーに通知してくれる
master url も書いてくれるので便利
・pm2
→設定したプロセスの生死を監視してプロセスが死んだら自動で起動してくれるらしい
これも記載に沿って ecosystem.config.js を作成して構成した
■おわり
これでほっといてもキャストがスペース始めたら検知して通知、終わったら DL もしといてくれる
「○時からスペースやります」とかツイートしてる適当なアカウントも監視対象に入れて試運転してみるのがいい
自分は各設定ファイルを置いてるホームディレクトリに「download -> <アカウントID>」のディレクトリが
作成されてそこに <スペース名>.m4a ファイルが作成されたよ
ただ多分だけど VM→自分のPC にファイルを DL するとき 1GB 以上は課金必要になりそう
2時間のスペースでも 95MB だったからよほどたくさん DL しない限り大丈夫だとは思うけど
もっといい方法があったら教えてください自分もわかる範囲なら教えます
-
ちょっと分かりにくいですね
-
便利そうだから自分も構築するか
-
環境構築めんどいからDockerイメージください
-
>>3
ごめん
>>5
ガチ素人だからそもそもDockerって何?って感じだ
■掲示板に戻る■ ■過去ログ倉庫一覧■