株式会社KDDI総合研究所 このページを印刷する

31種類のトレーニング動作や姿勢を認識する宅内行動認識AIを開発

~カメラ映像のみで人物の動きや姿勢を認識可能に~

2018年10月9日
株式会社KDDI総合研究所

株式会社KDDI総合研究所(本社:埼玉県ふじみ野市、代表取締役所長:中島康之、以下「KDDI総合研究所」)は、単眼のカメラ映像から骨格などの動きを捉え、スクワットなど31種類のトレーニング動作や姿勢(注1)を認識する「宅内行動認識AI」を開発しました。「宅内行動認識AI」を活用することにより、スマホで撮影した映像に対し、AIがトレーナーとしてアドバイスすることが可能となるなど新しいトレーニングサービスの実現が期待されます。本成果は、10月16日(火)~10月19日(金)に幕張メッセ(千葉県千葉市)で開催される展示会「CEATEC JAPAN 2018」のKDDIブースの「AIパーソナルトレーニング」コーナーで展示します。

 

 

 

図1 宅内行動認識AIの利用イメージ図

 

 

近年、カメラ映像やセンサーを使って、人物の輪郭、表情、動作、背景などの特徴を捉えて行動を認識する技術やサービスが普及し始め、更なる利便性の向上や多様なサービスへの期待が高まっていますが、人物の動作を正確に把握することや専用のデバイスが必要などの課題がありました。

 

このたび、KDDI総合研究所は単眼カメラのみの映像から、スクワットなど31種類のトレーニング動作や姿勢を認識する「宅内行動認識AI」を開発しました。「宅内行動認識AI」は人物の動きを認識すると共に、深度センサーなどを用いなくても単眼カメラのみで動いているときの姿勢を把握することができます。ここでは従来の画像の色の特徴や動きの特徴に加え、骨格の構造や動きの制約を考慮して18カ所の骨格を深層学習により抽出・補正し、骨格間の角度や比率などの時系列変化を認識します(注2)。これにより、スクワットを実施する場合、回数のカウントだけでなく、膝の角度が閾値以上曲がっているかどうかや膝がつま先よりも前に出ていないかどうかをチェックし、AIがトレーナーのように改善すべき姿勢を音声や映像で知らせることができます。他の30種類のトレーニングについても、それぞれのトレーニングに応じたアドバイスを行い、一回の動作におけるテンポもチェックし、早すぎたり遅すぎたりしても音声や映像で知らせます。さらに、スマホなどで撮影した映像を160 px x 160 pxの低解像度にしても精度を落とさずに動作を認識できるため、サーバとのやり取りもネットワークの通信速度の影響を受けにくく、AIのトレーナーがリアルタイムでアドバイスをすることが可能です。

 

 

 

図2 技術の詳細

 

 

KDDI総合研究所は、トレーニング以外の食べる、本を読むなど約60種類の行動(注3)についても、人物を特定できる明るさの環境で深度センサーを用いた場合と同等の約89.3%の認識精度を達成しました。

 

今後は、トレーニング行動を中心に、行動認識の精度をあげ「宅内行動認識AI」の実用化に向け取り組んでいきます。さらに、様々な明るさでの高精度な認識などロバスト性という課題を解決し、宅内環境だけでなく、宅外など様々な環境下でも正確かつ詳細な行動を認識可能なAIの研究開発を進めていきます。

 

 

 

(注1)スクワットやランジなどプロのトレーナーとともに検討したトレーニング
(注2)18カ所の骨格を抽出する膝や肩などは恐らくここだろうと判断できる状態で抽出可能。スカートなどでは不可
(注3)NTU RGB+D Action Recognition Datasetで定義されている約60種類の行動

 

※ニュースリリースに記載された情報は、発表日現在のものです。 商品・サービスの料金、サービス内容・仕様、お問い合わせ先などの情報は予告なしに変更されることがありますので、あらかじめご了承ください。