MediaPipeからBlenderへ - ④ 動きの取り込み(未完)

From MediaPipe to Blender - Capturing the movement (unfinished)

動画のランドマークを元にしてBlenderのアーマチュアが同じ動きをするか試しています。

今のところ、位置はなんとかなりましたが、個々のボーンの角度がまるでダメダメです。ただ、プログラムのどこを修正すればいいかまでは分かりましたので、途中経過をお知らせしますね。

※このページに掲載したコードは、キーフレーム設定の部分を最終版でかなり修正したので、あまり参考になりません…。

continue…▶

Gtkビデオ再生

私の文字起こしツール:原型

動画の文字起こしをするための自分用ツール、mojiokosher.py。

当初はGtkウィンドウの中に動画再生とテキストエディタのウィジェットを持たせるつもりでしたが、テキスト編集は既成のエディタでよさそうなので、ビデオを再生することにフォーカスします。

continue…▶
Python 

テスト用ミニスクリプト

作って使う文字起こしツール

筆者にとってやりやすい文字起こしの過程は以下の3段階に分けられます:

  1. 発話時間がなるべく10秒以内になるように、対象の音声を小分けする
  2. 小分け音声を音声認識エンジンにかけ、1クリップ1行の形式で出力をテキストファイルに保存する
  3. 小分けされた音声または動画を繰り返し再生しつつ、該当箇所のテキストの修正をする

Pythonスクリプト、Audacity、Julius または DeepSpeechで1と2はだいたい望み通りに動いています。

今、3の部分を Python GTK+ を使ってプログラムを書いているところです。今回はテスト用ミニスクリプトで骨組みを作ります。

continue…▶
Python