任务

action recognition

对骨架节点坐标进行视角不变预处理

We align the action sequences by implementing a view-invariant transformation which transforms keypoints coordinates from original coordinate system into a view-invariant coordinate
system。
【论文笔记】2020CVPR - PREDICT & CLUSTER: Unsupervised Skeleton Based Action Recognition 

基本流程

先训练出一个encoder-decoder,这个encoder是双向GRU,decoder是单向GRU。把encoder得到的特征叫做high dimensional feature。如下图:

【论文笔记】2020CVPR - PREDICT & CLUSTER: Unsupervised Skeleton Based Action Recognition

再把high-dimensional feature送进另一个encoder-decoder,这里的encoder和decoder都是全连接层,激活函数是tanh,如下图所示。把这个encoder得到的特征叫做low dimensional feature。用这个low dimensional feature做KNN聚类。

【论文笔记】2020CVPR - PREDICT & CLUSTER: Unsupervised Skeleton Based Action Recognition

数据集

North-Western UCLA (NW-UCLA) dataset
UWA3D Multiview Activity II (UWA3D) dataset
NTU RGB+D dataset
 

 

相关文章:

  • 2021-05-20
  • 2021-10-21
  • 2021-11-16
  • 2022-01-22
  • 2021-10-23
  • 2021-06-27
  • 2021-05-21
猜你喜欢
  • 2021-07-23
  • 2021-09-11
  • 2021-08-05
  • 2021-07-07
  • 2021-10-31
  • 2021-04-02
  • 2021-07-30
相关资源
相似解决方案