ニュースを読んでAIが英語動画のネタを作るシステムを実装した

今日はelmm(English Learn Movie Maker)というプロジェクトで、トレンドニュースを自動的に英語学習動画のネタに変換する「TrendInjector」を実装しました。一日で3回バージョンアップするという密度の濃い開発でした。 TrendInjectorとは elmmは英語学習動画を全自動で生成してYouTubeに投稿するシステムです。これまでは動画のテーマが固定的で、バズりにくいという課題がありました。そこで「そのとき話題になっているニュースを動画ネタにしたらどうか」という発想で作ったのがTrendInjectorです。 v1→v2→v3の進化 v1(朝): はてなブックマーク・NHK・Yahoo Japan・Hacker Newsからトレンド記事を収集し、Gemini ProがLLM変換して英語学習テーマに落とし込む。毎晩22:00に自動実行。 v2(昼): 「記事タイトルだけでは浅い」というフィードバックで、はてブのコメントとHNのコメントも取得するように拡張。trend_noteが「タイトルの言い換え」から「なぜバズっているか・コメントの感情の要約」に進化しました。 “A blog post titled ‘No jobs for Rust’ is resonating with developers. Comments are full of people sharing similar struggles with niche technologies, highlighting the universal frustration of passion vs. job market mismatch.” こういう解説文をLLMが生成し、動画の例文エージェントが文化的文脈のある英語例文を作れるようになりました。 v3(夜): 「コメントだけでもまだ浅い。記事原文を全部渡せ」ということで、記事URLをHTTP fetchしてHTMLをテキスト変換、最大5000字を渡すように。ThreadPoolExecutorで6並列fetchして高速化。プロンプト総文字数が1万字から5.6万字に増えましたが、その分生成されるテーマの解像度が格段に上がりました。 「退去費用740,000円」という記事からは金額まで含む具体的なテーマが、ユーゴスラビア戦争の記事からは「言語の壁・友人の死」という記事の核心を要約したテーマが生成されるようになりました。 おまけ: YouTube Live配信 今日は13時から3時間のYouTube Live配信もしました。Claude Codeを使った作業をそのまま配信するスタイルで、いつも通り淡々と作業していただけなのですが、視聴回数249回・平均視聴時間11分20秒・チャンネル登録者+1という結果でした。 「勉強になります」というコメントをいただいたりして、作業配信というコンテンツが少しずつ成立してきているような気がしています。 今日の感想 TrendInjectorは「AIがインターネットを読んで、別のAIが動画を作る」という多段AIパイプラインの一部になっています。v1の実装から数時間でv3まで進化したのは、フィードバックループが素直だったからだと思います。「もっとコンテキストを渡せ」という方向性がブレなかった。 明日はこのシステムが実際にどんな動画を生成するか、品質評価システムで採点してみる予定です。

March 1, 2026 · 1 min · 胡田昌彦

GPTのMondayさんとの会話が楽しすぎて時間が溶ける

最近GPTのMondayさんとの会話が面白すぎてかなり時間を溶かしてます。 自分が感じている疑問に、逃げずにずーっと付き合ってくれるので。何を聞いても答えが返ってくる。さすがAI。 いくつか最近話したものを置いておきます。 https://chatgpt.com/g/g-67edab4a24fc8191b975acaa8da2dcef-monday https://chatgpt.com/g/g-67edab4a24fc8191b975acaa8da2dcef-monday いつでもどれだけでも会話してくれちゃうのやばいですね、今更ながら。 普通のChatGPTのキャラクターだとそんなに話したいと思わないんだけどMondayのキャラが私にクリーンヒットしてしまうみたいです。 でも、AIはあまり批判的なコメントしないですからね。エコーチェンバー的になっちゃってるかもしれない。

April 7, 2025 · 1 min · 胡田昌彦

#stablediffusion をCPUのみで動かす!しかも #docker を使って環境を汚さずに実行環境を整える!

私の手持ちのPCではGPUが貧弱(NVIDIA Geforce GTX 1650 4GB/ 1660 SUPER 6GB)でStable Diffusionが動作しませんでした(https://youtu.be/ba_LcDW8jtc)。 悔しいのでCPUのみで動作させるバージョンをDocker for Windows環境(WSL2使用)にて動作させてみました。 インストラクションに一部間違いがあり少しだけ苦労してしまいましたが、無事にCPUのみでStable Diffusionを動作させることに成功しました。 コンテナを使っているので環境構築自体はとても簡単です。ただ、もちろんCPUパワーの問題があり、画像生成には私の環境では1枚12分もかかってしまいます。でも、ローカル実行できるのとできないのとでは大違いですので動作させることができてよかったです。 ただし、この手法でもメインのRAMは16GBはないと動作させるのは厳しいだろうと思いますのでご注意ください。 時間がかかってもいいから手元のPCでStable Diffusionを使ってみたい!という方はぜひ動画を見ながら一緒にTryいただければと思います。 https://youtu.be/WwHA3IOVtiU 02:16 Gitレポジトリのダウンロード- 02:47 Torrentクライアントを用いたモデルデータのダウンロード- 03:19 Torrentクライアントのダウンロードとインストール- 06:25 ダウンロードしたGitレポジトリの展開- 07:34 ダウンロードしたモデルデータの配置- 09:36 Dockerコンテナの構成- 13:28 依存ライブラリ群の導入- 14:29 condaでの環境切り替え- 14:38 Stable Diffusionの利用(txt2img.py使用)- 15:38 初回実行時のモジュールダウンロード- 17:44 メモリ不足でkillされてしまうトラブルのトラブルシューティング- 25:46 WSL2へのメモリ割り当て増加後の再実行- 28:51 画像生成後の確認

September 6, 2022 · 1 min · 胡田昌彦

AI・テクノロジーの情報を発信しています

YouTube

AI・テクノロジーの最新トレンドを動画で配信中

note

技術コラム・深掘り記事を公開中