自然言語処理の技術で動画解析

今日の人気記事

  1. SMART ICOCAを発行して使ってみたので良い点悪い点をまとめてみた
  2. 円錐形ドリッパーを買ってみたので台形(扇形)ドリッパーとの違いをまとめてみた
  3. SMART ICOCAの退会(払いもどし)をしてみたので注意すべきことをまとめておく
  4. イモトのWi-Fiとイモトのケータイ イモトさん大人気ですね
  5. GALAXY Note II(SC-02E)をAndroid 6.0.1 Marshmallow(CM13)にしてみたのでメモを残しておく
  6. GALAXY Note II(SC-02E)をAndroid Lollipop(5.0/CM12.0)にしてみたのでメモを残しておく
  7. LinuxでGoogleドライブを使えるようにしてみたのでメモ残しておく
  8. イオンゴールドカードのインビテーション到着からカード受領までをまとめてみた
  9. まだアラーム音で朝起きてるの? Sleep as Android×スマートウォッチでスマートに目覚めよう
  10. 使わなくなったスマホケース それリサイクル出来ますよ
この記事の読了時間: 043

ごきげんよう

今回はこの記事です。

動画の中の人が何をしているか分かるアルゴリズム、開発される

http://wired.jp/2014/06/15/activity-recognition/

この研究では動画内のジェスチャーや行動を
自然言語処理の技術(形態素解析)を元にして解析してみたというお話。

短いアクションを大量に保持して、その関係性を保持して
それを元に動画を細分化して、どんな動作をしているか把握する。
まるで形態素解析だね。

きっちり、元のアクションは機械学習になってるけど。
ここから先は、精度との戦いだね。
やはり、分割できないものは細切れのデータを元に分割来ていくのかな。

なんか、私もこういうことしたい。
なので、悔しい

それでは ごきげんよう

RSS/feedlyはこちら

follow us in feedly


プッシュ通知受信はこちら



Twitterアカウントはこちら




コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

Time limit is exhausted. Please reload CAPTCHA.

次のHTML タグと属性が使えます: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>