昨日のAI・ブロックチェーン・量子コンピューティング・VR/MRの展示会、NexTech Week 2025秋で出会ったAI開発の会社さんで、目黒の「EN x PITSU」社さんのマネをしてみました。
ここの内容は「読まれない記事をAI活用してストーリーを作ってYouTubeで展開する」ということだ。
正直なところ自分でやるのは効率が悪い。
まだまだ精進するところがある。
ENxPITSU社はAIを活用して、その投稿の内容をAI要約、ストーリーを作り、更にずんだもんちゃんの声で画像で解説。
しかも画像はその要約内容のところを利用してAIが自動生成。
数分で終わる。
ここまで極めることが出来るというのはすごいですね。
しかも安いんです。
値段はえ?と思うような価格で、儲からないじゃない?っていうくらいでした。
今回、私がやった方法は
- 記事をGeminiやChatGPTに入れて要約を頼んだ
- 要約した内容をガンマでプレゼンにしてもらった
- 要約した内容を、二人の会話形式にしてもらった
- VoicePeakの音声合成を活用してストーリーを作る
- ナレーションを作る(ボイスキャラを決める)
- 二人の会話を作る(ボイスキャラを決める)
- BGMを決める(Sunoで作った)
- ガンマの画像サイズを1920×1080にする
- 会話と映像が合うようにタイムライン構成を考えてPremiere Proで編集
- 会話の画像を考える(作る)
- タイミングや映像を整う
- 出力する
ザクッと2時間くらいかかってしまった。
確かに効率は悪いし、面白くもない
これをGPTsとかでできれば便利になるが、内容によって難しいとも思う。
EN x PITSUさんがやっているのはもっと単純でずんだもんちゃんが解説している。
しかも画像はAIが作っていくのと、ずんだもんちゃんも登場するので見応えがある。
Aivis Speechで漫才をさせたほうが面白いかも知れない。
映像はVREWを使うのもありだなと。
こういうのをやって葬儀屋さんだけでなく、終活の人たちが自社のアピールできればと。
問題は、Premiere Proというアプリを使う(有料)、Black Magic DaVinciは無料だが使うのにハードルが同じように高い。
MSのMovieChimp、iMovieでもできそう。
BGMはYouTubeのを使うか自分で作るか。
音のダッキング調整が知らないと難しい。
読まれるか、見られるか、自分のYouTube次第。
すべてセンスが必要である。
自動化をしたいですね。
「葬祭ジャーナル」の jFuneral.comをもっと見る
購読すると最新の投稿がメールで送信されます。


