Daily_and_Sports_Activities数据集介绍及文件结构解析

释放双眼,带上耳机,听听看~!
本文介绍了Daily_and_Sports_Activities数据集,包括19项日常和体育活动的运动传感器数据,数据集内容和文件结构详细解析。了解每项活动的数据采集细节和存储方式,有助于进一步的数据分析和研究。

本文为稀土掘金技术社区首发签约文章,30天内禁止转载,30天后未获授权禁止转载,侵权必究!

一、Daily_and_Sports_Activities数据集

1.数据集介绍

该数据集包括19项日常和体育活动的运动传感器数据,每项活动由8名受试者以自己的风格进行5分钟。躯干、手臂和腿部使用五个Xsens-MTx单位。19 项活动中的每一项都由 8 名受试者(4 名女性,4 名男性,年龄在 20 至 30 岁之间)进行,每次 5 分钟。 每个受试者的每项活动的总信号持续时间为 5 分钟。 受试者被要求以自己的风格进行活动,并且不受活动方式的限制。出于这个原因,某些活动的速度和幅度存在主体间差异。 这些活动在比尔肯特大学体育馆的电气和电子工程大楼进行, 在校园内平坦的户外区域。传感器单元经过校准,可在 25 Hz 采样频率下采集数据。将 5 分钟信号分成 5 秒段,以便为每个活动获得 480(=60×8) 个信号段。

2.数据集内容

这19项活动是: 坐着(A1), 站立(A2), 仰卧和右侧(A3 和 A4), 上下楼梯(A5和A6), 站在电梯里静止不动 (A7) 在电梯(A8)中四处走动, 在停车场(A9)行走, 在跑步机上以 4 公里/小时的速度行走(在平坦和 15 度倾斜的位置)(A1 0 和 A11), 在跑步机上以 8 公里/小时的速度跑步 (A12), 在步进器(A13)上锻炼, 在交叉训练器(A14)上锻炼, 在水平和垂直位置(A15 和 A16)骑健身车, 划船 (A17), 跳跃 (A18), 和打篮球(A19)。

3.数据集文件结构

19项活动(a)(按上述顺序排列) 8 个科目 (p) 60 段 (s) 躯干 (T)、右臂 (RA)、左臂 (LA)、右腿 (RL)、左腿 (LL) 5 个单位 每个单元上有 9 个传感器(x、y、z 加速度计、x、y、z 陀螺仪、x、y、z 磁力计)。

文件夹 a01、a02、…、a19 包含 19 项活动记录的数据。 对于每个活动,子文件夹 p1、p2、…、p8 包含来自 8 个主题中每个主题的数据。 在每个子文件夹中,有 60 个文本文件 s01、s02、…、s60,每个段一个。

在每个文本文件中,有 5 个单位 x 9 个传感器 = 45 列和 5 秒 x 25 Hz = 125 行。 每列包含 125 个数据样本,这些数据样本在 5 秒的时间内从其中一个单元的传感器获取。 每行都包含从所有 45 个传感器轴在特定采样时刻采集的数据,用逗号分隔。
第 1-45 列对应于:

T_xacc、T_yacc、T_zacc、T_xgyro、…、T_ymag、T_zmag、 RA_xacc、RA_yacc、RA_zacc、RA_xgyro、…、RA_ymag、RA_zmag、 LA_xacc、LA_yacc、LA_zacc、LA_xgyro、…、LA_ymag、LA_zmag、 RL_xacc、RL_yacc、RL_zacc、RL_xgyro、…、RL_ymag、RL_zmag、 LL_xacc、LL_yacc、LL_zacc、LL_xgyro、…、LL_ymag、LL_zmag。

因此 第 1-9 列对应于单元 1 (T) 中的传感器, 第 10-18 列对应于单元 2 (RA) 中的传感器, 第 19-27 列对应于单元 3 (LA) 中的传感器, 第 28-36 列对应于单元 4 (RL) 中的传感器, 第 37-45 列对应于单元 5 (LL) 中的传感器。

  • Dataset Characteristics 数据集特征

Multivariate, Time-Series 多变量,时间序列

  • Subject Area 学科领域

Computer Science 计算机科学

  • Associated Tasks 相关任务

Classification, Clustering 分类、聚类

  • Feature Type 要素类型

Real 真正

  • Instances 实例

9120

  • Features  特性

5625

二、数据集处理

原数据分析: 原始文件共19个活动,每个活动都由8个受试者进行信号采集,每个受试者在每一类上采集5min的信号数据,采样频率25hz(每个txt是 125*45 的数据,包含5s时间长度,共60个txt)

预处理思路: 数据集网站的介绍中说到60个txt是有5min连续数据分割而来,因此某一类别a下同一个受试者p的60个txt数据是时序连续的。所以可以将a()p()下的所有txt数据进行时序维度拼接,选择窗口大小为125,重叠率为40%进行滑窗。

1. 环境设置

首先,确保Python环境已安装以下库:

  • numpy:用于数值计算。
  • pandas:用于数据处理和CSV文件读取。
  • os:用于操作系统功能,如文件路径处理。
  • sys:用于访问与Python解释器紧密相关的变量和函数。

如果未安装,可以通过以下命令安装:

pip install numpy pandas

2. 数据集下载

数据集可以从UCI机器学习库下载,我们编写一个函数来自动下载并解压数据集。

import os
import zipfile
from urllib.request import urlretrieve

def download_dataset(dataset_name, file_url, dataset_dir):
    # 定义文件名和下载路径
    file_name = dataset_name + '.zip'
    download_path = os.path.join(dataset_dir, file_name)
    
    # 下载文件
    urlretrieve(file_url, download_path)
    
    # 解压文件
    with zipfile.ZipFile(download_path, 'r') as zip_ref:
        zip_ref.extractall(dataset_dir)
    
    # 删除压缩文件
    os.remove(download_path)

# 调用下载函数
download_dataset(
    dataset_name='Daily_and_Sports_Activities',
    file_url='http://archive.ics.uci.edu/static/public/256/daily+and+sports+activities.zip', 
    dataset_dir='./data'
)

3. 数据预处理

我们使用一个DASA函数来处理数据集,执行以下步骤:

3.1 参数设置

在函数开始处,我们设置了一些预处理参数:

  • dataset_dir:数据集存放的目录。
  • WINDOW_SIZE:滑动窗口的大小。
  • OVERLAP_RATE:滑动窗口的重叠率。
  • SPLIT_RATE:训练集和测试集的分割比例。
  • VALIDATION_SUBJECTS:用于验证的受试者编号集合。
  • Z_SCORE:是否进行Z分数标准化。
  • SAVE_PATH:预处理后数据的保存路径。
def DASA(dataset_dir='./data', WINDOW_SIZE=125, OVERLAP_RATE=0.4, SPLIT_RATE=(8, 2), VALIDATION_SUBJECTS={7, 8}, Z_SCORE=True, SAVE_PATH=os.path.abspath('../../HAR-datasets')):
    # ... 省略其他代码 ...

3.2 数据读取与滑动窗口

接下来,我们读取原始数据,并应用滑动窗口技术来处理数据。

for label_id, adl in enumerate(adls):  # 遍历每个活动
    # ... 省略部分代码 ...
    for participant_idx, participant in enumerate(participants):  # 遍历每个受试者
        # ... 省略部分代码 ...
        files = sorted(os.listdir(participant))
        concat_data = np.vstack([pd.read_csv(file, sep=',', header=None).to_numpy() for file in files])
        cur_data = sliding_window(array=concat_data, windowsize=WINDOW_SIZE, overlaprate=OVERLAP_RATE)

这里,我们首先读取每个受试者文件夹中的所有文件,并将它们按顺序读取并垂直堆叠(np.vstack)成一个大的数组。然后,我们使用sliding_window函数对这个大数组应用滑动窗口技术,生成窗口化的数据。

3.3 数据分割

根据VALIDATION_SUBJECTS参数,我们选择留一法或平均法来分割训练集和测试集。

if VALIDATION_SUBJECTS:  # 留一法
    # ... 省略部分代码 ...
else:  # 平均法
    trainlen = int(len(cur_data) * SPLIT_RATE[0] / sum(SPLIT_RATE))
    testlen = len(cur_data) - trainlen
    xtrain += cur_data[:trainlen]
    xtest += cur_data[trainlen:]
    ytrain += [label_id] * trainlen
    ytest += [label_id] * testlen

3.4 数据标准化

如果设置了Z_SCORE=True,则对数据进行Z分数标准化。

if Z_SCORE:
    xtrain, xtest = z_score_standard(xtrain=xtrain, xtest=xtest)

3.5 数据保存

最后,我们将预处理后的数据保存到指定的路径。

if SAVE_PATH:
    # ... 省略部分代码 ...

4. 运行预处理

最后,我们调用DASA函数来执行整个预处理流程。

if __name__ == '__main__':
    DASA()

5. 结论

通过上述步骤,我们详细介绍了DASA数据集的下载、预处理、数据分割、标准化以及保存的过程。这些步骤为后续的机器学习模型训练和评估提供了准备好的数据。

请注意,上述代码中省略了一些辅助函数的实现细节,如sliding_windowz_score_standard。这些函数的具体实现将依赖于数据的具体格式和预处理需求。此外,代码中的路径和参数可能需要根据实际情况进行调整。

最后结果展示如下:
Daily_and_Sports_Activities数据集介绍及文件结构解析

三、CNN网络训练Daily_and_Sports_Activities数据集

1.CNN网络结构

这里我们就不在过多解释,在之前的文章中已经多次提到了:
Daily_and_Sports_Activities数据集介绍及文件结构解析

2.训练结果

Daily_and_Sports_Activities数据集介绍及文件结构解析
通过训练CNN网络,Daily_and_Sports_Activities数据集在测试集上达到了87.93%的准确率,模型显示出了良好的泛化能力,同时具有91.60%的精确度和87.93%的召回率,F1分数为0.8973,表明模型在精确度和召回率之间取得了较好的平衡。此外,模型的推理时间非常快,单张图片的推理时间在0.0010到0.0013秒之间,整个测试集的推理时间仅为1.3570秒,显示出模型在实际应用中的高效性。

注意:具体的代码实现和模型细节可以联系作者获取,以便进一步的研究和应用。本文首发于稀土掘金,未经允许禁止转发和二次创作,侵权必究。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

扣子(coze.cn)AI Chat Bot开发平台初体验及技术实现原理

2024-6-15 7:33:00

AI教程

使用Sentence Transformers进行模型微调的指南

2024-6-15 8:18:00

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索