自然言語処理の技術で動画解析


今日の人気記事

  1. SMART ICOCAを発行して使ってみたので良い点悪い点をまとめてみた
  2. SMART ICOCAの退会(払いもどし)をしてみたので注意すべきことをまとめておく
  3. 円錐形ドリッパーを買ってみたので台形(扇形)ドリッパーとの違いをまとめてみた
  4. イオンゴールドカードのインビテーション到着からカード受領までをまとめてみた
  5. マウスからトラックボール(親指型/人差し指型)に変えて感じたメリットとデメリット
  6. LinuxでGoogleドライブを使えるようにしてみたのでメモ残しておく
  7. BIC SIMカウンターでSIMカードをmicro SIMからnano SIMへサイズ変更してみたので残しておく
  8. ひとりカラオケからセルフサービスカラオケへ 全てセルフサービスのカラオケ店登場
  9. 大手携帯キャリア(docomo/au/SoftBank)のデータ容量くりこし仕様について比較してみた
  10. GALAXY Note II(SC-02E)をAndroid Lollipop(5.0/CM12.0)にしてみたのでメモを残しておく
この記事の読了時間: 043

ごきげんよう

今回はこの記事です。

動画の中の人が何をしているか分かるアルゴリズム、開発される

http://wired.jp/2014/06/15/activity-recognition/

この研究では動画内のジェスチャーや行動を
自然言語処理の技術(形態素解析)を元にして解析してみたというお話。

短いアクションを大量に保持して、その関係性を保持して
それを元に動画を細分化して、どんな動作をしているか把握する。
まるで形態素解析だね。

きっちり、元のアクションは機械学習になってるけど。
ここから先は、精度との戦いだね。
やはり、分割できないものは細切れのデータを元に分割来ていくのかな。

なんか、私もこういうことしたい。
なので、悔しい

それでは ごきげんよう

RSS/feedlyはこちら

follow us in feedly


プッシュ通知受信はこちら



Twitterアカウントはこちら



コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

Time limit is exhausted. Please reload CAPTCHA.

次のHTML タグと属性が使えます: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>