当前位置: 首页 > news >正文

多模态大型模型,实现以人为中心的精细视频理解

大家看完觉得有帮助记得点赞和关注!!!

抽象

精细理解视频中人类的动作和姿势对于以人为中心的 AI 应用程序至关重要。在这项工作中,我们介绍了 ActionArt,这是一个细粒度的视频字幕数据集,旨在推进以人为中心的多模态理解的研究。我们的数据集包含数千个视频,这些视频捕捉了广泛的人类动作、人机交互和各种场景,每个视频都附有详细的注释,精心标记了每一个肢体运动。 我们开发了 8 个子任务来评估现有大型多模态模型在不同维度上的细粒度理解能力。实验结果表明,虽然目前的大型多模态模型在各种任务上表现值得称赞,但它们往往无法实现细粒度的理解。我们将这种限制归因于精心注释的数据的稀缺性,这些数据既昂贵又难以手动扩展。 由于手动注释成本高昂且难以扩展,我们提出了代理任务来增强模型在空间和时间维度上的感知能力。这些代理任务经过精心设计,由现有 MLLM 自动生成的数据驱动,从而减少对昂贵的手动标签的依赖。实验结果表明,所提出的代理任务显著缩小了与手动注释的细粒度数据所实现的性能差距。

1介绍

对视频中人类行为的精细理解对于推进各种以人为中心的 AI 应用程序至关重要,例如在 VR 系统和复杂的监控系统中增强人机 AI 交互[2,15,51,61].这些应用程序依赖于 AI 系统准确解释动态环境中微妙而复杂的人类活动的能力。尽管本质上是多模态的[1,60,9],使用多模态大型模型进行以人为中心的详细视频理解仍然是一个相对未开发的探索领域。

在这项工作中,我们介绍了 ActionArt,这是一个以人为中心的视频数据集,富含细粒度的手动字幕,旨在推动详细视频理解的研究。 我们的数据集建立在 MoVid 之上[7]数据集,其中包含数千个视频,展示了不同场景中的各种人类作和交互。由于 MoVid 缺乏详细的字幕,我们精心注释了每个视频,并提供了全面的描述,为每个肢体动作提供了详细的注释,如图 1 所示。1. 基于这些注释,我们提出了一个新的基准,以全面评估多模态大型语言模型 (MLLM) 的细粒度理解能力。

图 1:ActionArt 数据集中连续帧的字幕示例。我们提供详细的字幕,用于描述人类姿势、身体部位以及与对象的交互。字幕还以细粒度的级别传达了视频中的时间变化。

尽管现有的 MLM 在各种任务中表现出色[41,40,32,62,16],我们的实验发现了一个重大限制:它们辨别人类行为中细粒度细节的能力受到限制。我们主要将此归因于缺乏可用于训练这些模型的精细注释数据。鉴于生成此类详细注释的成本很高[6,34,28,26,46,13],我们的工作通过提出相应的代理任务来解决细粒度以人为中心的视频理解的具体挑战。这些任务旨在利用自动注释的数据,从而增强 MLLM 的细粒度感知能力,而无需手动注释工作。

具体来说,我们已经确定了三个关键能力,这对于精细的以人为本的视频理解至关重要。首先,模型必须准确解释每个单独帧中的人体姿势。这包括识别和分析身体各个部位的位置和方向[38,56,54,50].为了增强此功能,我们采用高级 MLLM 为单个人类图像生成详细的姿势描述,并将“姿势描述”确立为我们的代理任务之一。 其次,模型需要理解连续帧之间人体姿势的变化。这种时间理解使模型能够有效地捕获动态运动和过渡。为了解决这个问题,我们引入了一个名为 “空间差异挖掘” 的代理任务,它要求模型识别相邻帧中人类姿势之间的差异。

最后,该模型应该能够理解人类行为的时间连贯性和顺序上下文。这不仅涉及识别离散的动作,还涉及感知这些动作随时间推移的流动和相互联系[35,43,42,27],从而全面解读视频中的人类活动。为了增强此功能,我们开发了一种创新的管道,用于自动生成支持细粒度时间理解的视频问答 (QA) 对。 我们的方法不是直接从整个视频中生成 QA 对,而是从成对帧中推断出细粒度的信息,并通过连接这些成对帧来合成长视频和相应的 QA。通过这种方式,我们有效地减轻了 QA 代的噪音。

我们的主要贡献有三个方面:(1) 我们引入了 ActionArt,这是一个具有挑战性的基准测试,专注于细粒度的以人为中心的视频理解,并配有全面的评估协议。(2) 我们发现现有的 MLLM 在此基准上表现出不令人满意的性能。为了解决这个问题,我们剖析了所涉及的挑战并设计了相应的代理任务,提供了端到端的解决方案,而无需手动注释。(3) 我们的实验表明,这些代理任务大大提高了多模态模型的细粒度理解能力。

2相关工作

2.1多模态大型语言模型

多模态大型语言模型 (MLLM) 在各种应用中表现出卓越的性能,包括光学字符识别 (OCR)[53]数学[24]和视觉问答 (VQA)[21].当前的 MLLM 利用 CLIP 等视觉语言模型[33]或 SigLIP[55]提取视觉标记,然后通过连接器将其转换为大型语言模型 (LLM) 特征空间。这种方法有助于将文本人类指令与视觉上下文相结合。LLM 处理视觉标记和文本指令,从而使其能够根据视觉上下文响应查询。

在基于图像的 MLLM 领域,研究主要集中在克服固定图像分辨率的局限性上[58,25,59]以及增强连接器以优化视觉语言模型和 LLM 之间的接口[44,42].拉瓦[21]建议使用一个简单的全连接层作为连接器,而 BLIP-2[18]引入了 Q-Former 来提取与文本输入相关的视觉信息。蜜蜂[5]建议使用卷积块作为连接器。装饰[45]利用池层来减少代币,同时保持有效的 MLP 区块和 DC[52]在连接器中统一来自 VLM 多个层的视觉令牌。

将图像 ML 扩展到视频域时[56,8,63]中,现有方法将来自每个帧的视觉标记连接起来以进行视频表示[48,20,47]或使用 Q 成型器来减少令牌负载[19,14].Xu 等人。[49]建议在 SlowFast 中组织视觉标记[10]方式。视频聊天2[19]利用 Q 成型器进行可视化标记压缩。羚羊-MLLM[23]引入了一个动态压缩器,通过不同的池化步幅来减少视觉标记。

图 2:我们的注释管道首先提示 GPT-4V 为每个视频生成初始字幕。我们观察到,现有的多模态大型语言模型 (MLLM) 通常难以准确辨别人体部位的方向,即使有精心设计的提示,也会导致粗粒度的描述。此外,GPT 的标题很嘈杂,标题中的错误以红色突出显示。在发现这些问题后,我们手动干预,然后提示 GPT-4 使用相应的模板生成各种类型的 QA,然后进行手动优化。

2.2视频 ML 中的基准测试

引入了几个基准来评估模型理解视频的能力[3,36].视频MME[11]旨在全面评估 MLLM 掌握时间维度、处理多模态输入(如字幕和音频)以及适应复杂场景的能力。此数据集包括来自不同领域的 900 个视频,总计 254 小时,并包含 2700 个人工注释的问答对。MVBench[19]重点介绍了 MLLM 在时间敏感型视频理解任务中的性能,例如复杂场景中的动作识别和时间推理。它由 20 个时间理解任务组成,视频的长度主要在 20 秒左右。Ziyao 等人。[36]提出一个高质量的视频基准测试,消除视频 QA 中的捷径,确保模型必须对视频进行彻底的推理才能得出正确的答案。尽管在时间理解方面取得了重大进展,但这些工作无法评估 MLLM 的细粒度理解能力。

同时,MoVid[7]已开发用于评估人类运动理解领域的模型性能;但是,它在提供精细的字幕来详细说明每个视频中的人类动作方面存在不足。运动工作台[12]通过从不同领域获取数据并为每个视频提供全面的字幕来详细描述人类运动,从而解决了这一差距。

相比之下,我们的 ActionArt 强调以人为中心的视频理解,评估子任务同时关注细粒度的空间感知和时间理解,这与 MotionBench 中的截然不同。此外,虽然之前的工作主要旨在增强网络架构以处理更多帧以进行精细理解,但我们的战略以数据驱动的方法为中心。这包括开发新的代理任务和利用灵活的数据收集方法来提高模型性能。

3动作艺术

尽管人类动作识别和视频理解取得了重大进步,但实现精细理解(例如捕捉身体部位和方向的细微运动)仍未得到充分探索。

为了推进以人为中心的细粒度视频理解的研究,我们引入了 ActionArt 数据集。我们的数据集包含精心策划的视频,展示了不同的人类动作,每个视频都附有详细的注释,作为强大的分析基准。此外,我们设计了 7 个子任务来全面评估多模态大型语言模型 (MLLM) 在以人为中心的视频理解中的能力。

3.1数据

我们使用 MoVid[7]数据集作为我们的视频源,因为它收集了大量的人体运动记录。由于 MoVid 不包含每个视频的详细人工字幕,因此我们总共处理了 4,009 个视频剪辑,每个剪辑都提供了细致入微的字幕注释。这些视频的长度各不相同,描绘了跨多个领域的广泛人类活动和人物互动,包括武术、舞蹈以及室内和室外环境。这种多样性对理解此基准内的人类行为提出了重大挑战。

为了在视频中捕捉人类动作的复杂性,我们设计了特定的提示并利用了 GPT-4V 等先进的多模态大型模型[30]以生成初步字幕。鉴于这些模型目前在全面理解细粒度人类作方面的局限性,每个字幕都经过手动优化,以确保准确性和完整性。注释过程经过严格的双重检查,以保持高质量。

图 3:不同类型 QA 的示例。

3.2精细的以人为本的视频理解基准

为了全面评估现有大型模型的细粒度理解能力,我们受先前研究的启发,设计了 7 个子任务[19,12,7]并形成基准。这些任务跨多个维度评估模型,涵盖全局到局部和时间到空间的视角。这七个子任务是:局部空间理解、全局空间理解、时间定位、动作序列、移动方向、动作理解和动作计数。

为了确保公平和准确的评估,我们像以前的工作一样,以多项选择的形式设计了 QA[32,19,7]. 每个任务的插图如图 1 所示。3

- 局部空间理解 (LS)。此任务评估模型辨别特定身体部位(如手和大腿)的姿势和位置的能力。例如,确定手的位置或脚的姿势。

- 全球空间理解 (GS)。作为对局部空间理解的补充,此任务评估模型识别视频帧中个体整体姿势和位置的能力。它涉及确定一个人是站着、躺着还是以其他姿势,从而挑战模型整合来自整个画面的空间线索。

- 时间定位 (TL)。此任务评估模型准确确定视频序列中特定动作的时间的能力,例如识别一个人何时开始下蹲。模型必须准确观看整个视频序列,并识别其中的所有精细作才能完成任务。

-作序列 (AS)。这项任务要求模型识别和解释涉及身体各个部位的运动顺序,例如舞蹈或武术中手臂和腿部运动的顺序。它需要整合时间和空间信息。

- 移动方向 (MD)。此任务评估模型确定人或特定身体部位的方向运动的能力。通过要求模型解释三维空间中的空间方向和运动动力学,它强调空间和时间信息的整合以实现全面的运动理解。

- 动作识别 (AR)。此任务侧重于识别身体部位执行的特定动作,尤其是手和脚,例如挥手或敲击脚。它要求模型探索详细的运动语义,从而将细微的动作识别推进到传统分析之外。

-作计数 (AC)。此任务评估模型准确计算视频中特定动作频率的能力,例如计算手挥或深蹲。它强调了时间一致性在人类行为建模中的重要性,有助于在各个领域实现稳健的应用。

- 人机交互 (HOI)。在以人为中心的视频中,人与物体之间的互动非常普遍,例如捡起或丢弃物品,或使用道具进行表演。因此,在细粒度的理解中,评估模型对人-对象交互的理解至关重要。

3.3问答对生成。

我们为每种类型的子任务生成了不同的多项选择 QA 对,以衡量模型在该子任务上的表现。 对于每个子任务,我们手动定义了问题模板和示例。我们将手动精细注释的字幕与模板和示例一起输入大型语言模型(例如 GPT-4),指导大型语言模型生成所需的 QA 对。

尽管存在手动注释的细粒度字幕,但从 LLM 生成的 QA 对经常包含错误,包括冲突的选项和不正确的答案,这进一步表明了精细的以人为本的视频理解的挑战。我们手动查看了测试视频并更正了每个问题和答案。最终,我们获得了 2,678 个 QA 对。

4代理任务学习

我们认为,目前的模型很难学习细粒度的动作理解,主要是由于缺乏必要的训练数据。尽管精确标记的数据成本高昂且难以扩展,但幸运的是,我们已经将细粒度理解的挑战解构为三个部分,并相应地设计了辅助任务以增强模型的能力。通过巧妙的设计,这些辅助任务的数据可以通过自动化生产流程大规模生成。

具体来说,要细粒度地理解视频,模型应该具备三个关键能力。(1) 首先,模型需要理解每一帧中的静态空间信息。(2) 其次,该模型捕获了相邻帧之间空间信息的动态变化。(3) 此外,模型应该理解视频中的时间信息以进行动作识别和理解动作序列,等等。

根据我们的分析,我们开发了三个代理任务,以有效地利用先进的 MLLM 自动生成标记数据进行学习,接近手动标签微调的性能。 在学习代理任务后,该模型有望表现良好。

4.1姿势描述

静态空间信息理解涉及对每帧中的人体姿势信息进行分析和解释,以提高模型对静态内容的理解。 我们观察到,现有的 MLLM 可以有效地描述每一帧中的人类姿势。因此,我们可以利用高级 MLLM 为这项任务自动生成不同的标记图像。

交流AR 系列GS系列LS 系列MV三叶草平均 Acc.
人类 (10%)71.793.578.894.892.593.380.079.487.4
GPT-4o 机器人†32.571.451.168.366.356.347.130.454.7
双子座†27.862.150.574.865.249.048.536.553.9
国际特工VL-2.5-78B54.061.455.282.973.060.848.253.562.2
Qwen2.5-VL-72B50.864.349.581.274.261.047.738.659.5
羚羊-7B39.764.352.478.675.358.844.633.157.3
Llava-OV-7B42.971.156.484.075.365.255.429.262.2
llava-video-qwen2-7B42.969.858.684.578.768.846.837.763.2
国际 VL-2.5-8B42.954.050.581.468.560.848.851.459.6
Qwen2.5-VL-7B41.359.844.878.670.855.344.930.454.7
PLLAVA-7B†24.653.743.353.870.845.327.736.244.1
长 VITA46.856.950.277.967.455.345.440.156.3
寒武纪-8B21.444.740.172.457.347.537.415.545.2
我们45.282.661.885.583.175.759.642.569.4

表 1:与 ActionArt 数据集上的高级 MLLM 的比较。具有 7B 参数的模型中性能最高,以粗体突出显示。我们的方法明显优于所有其他开源 MLLM,取得了最佳结果。默认情况下,通过对每个视频 64 帧进行采样来获得结果。标有†对应于每个视频 16 帧获得的值。

4.2空间差异挖掘

捕获相邻帧之间的空间信息变化对于精细的视频理解至关重要。我们开发了一个名为 “Spatial difference mining” 的代理任务,以训练模型捕获相邻帧之间的人体姿势转换。

由于我们只需要了解两帧之间的姿势差异,因此我们可以将两张图像完全输入到多模态大型语言模型 (MLLM) 中,而无需压缩,而不必担心超过预定义的标记长度。在适当的提示下,现有的 ML 可以有效地理解两张图像之间人体姿势的变化,即使图像被解压缩并且仅限于两张。因此,我们可以利用现有的多模态大型模型来自动生成此代理任务所需的数据。

通过利用自动生成的数据集,我们可以实现对运动轨迹或姿势变化的连续跟踪,从而提高模型对动作转换的理解。

4.3合成的细粒度 QA

时态内容理解要求模型掌握整个视频中的作顺序。通常,长视频包含丰富的时间变化。 但是,为长视频获取精细字幕具有挑战性并且容易出现噪点。

为了解决这个问题,我们采用 concatenation 方法创建长视频并形成精细的动作序列。 具体来说,由于两帧可以描述人类动作,因此我们将视频中的两帧视为一个动作单元。 这些作单元被馈送到现有的 MLLM 中,以分配精细的作标签,例如 “raise right hand” 或 “bend over” 。 在得到动作单元和对应的标签后,我们将不同的动作单元和标签拼接起来,形成一个具有细粒度动作序列标签的伪长视频。 值得注意的是,串联的动作单元可能来自不同的视频,这使得我们的生成管道更具可扩展性。 我们提示高级 MLLM 根据每个视频的动作序列生成不同的 QA。

通过集成这些方法,我们的目标是让模型在不依赖大规模手动注释数据的情况下逐渐提高其理解细粒度动作的能力。通过自动化工具可以促进辅助任务数据的生成,从而降低人工标注成本并提高训练效率。

5实验

在本节中,我们将评估 ActionArt 中的高级 MLLM,并报告结果。 然后,我们进行实验以证明我们提议的代理任务的有效性。

5.1数据集和评估指标

我们的 ActionArt 中有 2,678 个手动注释的多项选择质询,它们进一步分为七项任务。 我们利用每个子任务的准确率和整个基准测试的平均准确率作为我们的评估指标。

5.2实现细节

我们使用 Oryx-7B 图像[23]model 作为我们的基线。在训练期间,我们将最大采样帧数限制为 64,每帧的分辨率上限为 480x480 像素。 我们从每个帧中提取视觉标记,并将这些标记组织到 SlowFast 中[49,10]方式来派生视频表示形式。 我们的培训过程包括三个阶段。首先,我们在 Oryx-Video-SFT 数据集上训练模型[23]以适应 SlowFast 方法进行视频表示,而不是简单地连接每个帧的视觉标记。在此设置中,空间池步幅在慢速分支中设置为 2,在快速分支中设置为 4。 接下来,我们使用代理任务训练模型。

在最后阶段,模型在我们手动注释的数据集上进行训练。此时,仅使用手动注释的字幕。我们采用高级语言模型 GPT-4[29]从这些字幕生成不同的 QA 对以进行训练。

代理任务的数据收集。我们的代理任务利用来自 NTU-RGB+D-120 数据集的数据[22]以及 Kinetics700(简称 K700)数据集[4].NTU-RGB+D-120 数据集具有广泛的人类动作和高视频质量,而 K700 数据集则包含不同领域的各种人类动作。

鉴于这些数据集的独特特征,我们通过提示 Qwen2.5-VL-72B 来解决姿态描述任务[41]描述从 NTU-RGB+D-120 数据集中随机选择的 50K 帧中的人体姿势。对于空间差分挖掘任务,我们分配了 Qwen2.5-VL-72B 的任务[41]识别 K700 视频中两个均匀采样帧之间的姿势差异,最终选择 200K 帧进行训练。

对于细粒度的 QA,我们使用 Qwen2.5-VL-72B[41]推断两个帧中描述的详细动作,并创建一个带标签的动作单元集。然后,我们连接多个动作单元以合成更长的视频,从而提示 Qwen-2.5[41]替换为作单元标签来生成各种 QA 对。我们总共使用 200K 合成视频进行训练。

PF 系列任务交流AR 系列GS系列LS 系列MV三叶草平均 Acc.
帕金森标清FGQA 认证
40.558.550.881.274.254.344.032.855.8
\cdashline1-14 第 2 阶段。代理任务学习
\cdashline1-14 ✗46.066.954.279.977.562.247.134.059.6 (+3.8)
48.472.757.382.375.364.345.433.461.4 (+5.6)
50.072.156.182.573.062.044.931.660.4 (+4.6)
46.875.255.584.073.064.546.331.661.6 (+5.8)
46.071.455.882.375.366.344.032.861.1 (+5.3)
48.473.058.084.276.467.847.933.763.0 (+7.2)
50.072.356.781.273.064.745.431.360.9 (+5.1)
46.072.759.983.678.767.747.431.962.8 (+7.0)
\cdashline1-14 第 3 阶段。使用手动注释进行训练
\cdashline1-14  39.782.660.884.979.870.554.048.667.6 (+11.8)
45.282.661.885.583.175.759.642.569.4 (+13.6)

表 2:ActionArt 数据集中的消融研究。“PD” 表示姿态描述任务,“SD” 表示空间差异挖掘任务,“FGQA” 表示细粒度的 QA。 “MA” 表示使用手动注释。 为了更好地证明建议的代理任务的有效性,我们报告了使用手动标记数据(标记为灰色)直接训练的结果。 与基线模型的改进标记为红色“PF” 表示参数融合策略。有关详细信息,请参阅文本。

5.3ActionArt 中的主要结果

我们将我们的模型与高级 MLLM 进行了比较,包括专有的 MLLM:GPT-4o[31]双子座[39];和开源 MLLM,包括 InternVL-2.5[47]、Qwen2.5-VL[41]、羚羊-7B[23], llava-onevision-7B[17]、llava-video-qwen2-7B[57]、PLLAVA-7B[48]、Long-VITA[37]和 Cambrian-8B[42]. 除了 MLLM 之外,我们还对每项任务中 10% 的问题进行了抽样,并让 5 名志愿者回答这些问题以计算人工准确性。 实验结果如表 1 所示。

从表 1 中,我们可以观察到当前多模态大型语言模型在 ActionArt 数据集上的性能还有很大的改进空间。例如,Qwen2.5-VL-72B 尽管参数尺寸较大,但准确率仅为 59.5%。不同的模型在不同的子任务中表现出不同的优势。Llava-ov-7B 在动作识别、局部空间理解和移动方向任务中表现良好,而 InternVL-2.5-8B 在时间定位方面表现出色,明显优于其他模型。这些结果表明,当前的多模态大型模型在以人为中心的视频理解方面仍然缺乏足够的粒度。

此外,结果表明,实现细粒度的、以人为中心的理解是具有挑战性的,因为简单地增加模型的参数只会导致边际改进。例如,将 Qwen-2.5-VL 模型从 7B 参数扩展到 72B 参数仅产生 4.8% 的性能提升。

相比之下,与现有方法相比,我们提出的模型表现出卓越的性能,突出了我们方法的有效性和价值。我们在基准测试中实现了 69.4% 的总体准确率,比具有 7B 参数的次优模型高出 7.2%,并超过了更大的 Qwen-2.5-VL-72B 模型。我们的模型在所有子任务中都提供了最佳性能,但作计数任务除外,与前 7B 模型 Long-VITA 相比,它比前七 7B 模型 Long-VITA 少了 1.6%。这个缺点归因于我们专注于为以人为中心的视频理解设计代理任务,这并没有解决现有 MLLM 架构的固有限制。作计数需要密集帧采样才能进行精确计算,但当前 MLLM 的有限上下文长度限制了它们对帧进行密集采样的能力。与我们的方法不同,Long-VITA 强调长视频理解并采用先进的采样策略,使其能够在该领域取得卓越的结果。

5.4消融研究

我们进行了广泛的实验,以展示我们提议的代理任务的有效性。实验结果如表 5.2 所示。第一行显示我们的基线的结果,即 Oryx-7B 模型,没有对代理任务或手动标记的数据进行任何微调。

我们的代理任务中使用的训练数据不包含实际的视频序列。例如,用于空间差异挖掘的数据包括成对帧。因此,我们推测这些代理任务可能会削弱模型处理长序列的能力。为了应对这一挑战,我们进一步探索了一个简单的解决方案:参数融合策略。

- 细粒度 QA (FGQA) 的有效性。使用从现有多语言语言模型 (MLLM) 自动合成的建议细粒度 QA 训练模型,可以显著提高模型在各个任务中的性能。平均性能从 55.8% 提高到 59.6%,比基线提高了 3.8%。这些实验表明,我们的细粒度 QA 方法有效地指导模型在更详细的层面上理解以人为中心的视频,从而减少了对手动注释的要求。

性能改进源于我们生成精细 QA 的方法。我们不是提示 MLLM 从整个视频生成 QA,而是提示它推断两个帧之间的作。通过连接这些成对帧,我们合成了一个更长的视频并得出了细粒度的标签,从而增强了模型的理解。 无花果。6 说明了我们生成的 QA,突出了这种方法的有效性。

- 姿势描述 (PD) 任务的有效性。如表 5.2 所示,姿势描述 (PD) 任务显着增强了模型识别人类动作和理解空间信息的能力。这可能是因为动作识别和空间理解都需要准确感知视频中的空间信息。使用 PD 和 FGQA 任务训练模型可将平均准确率从 55.8% 提高到 60.4%,性能比基线提高了 4.6%。

- 空间差分 (SD) 任务的有效性。与 PD 相比,SD 任务更具挑战性,因为它需要了解两帧之间的空间信息变化。SD 和 FGQA 任务的组合显示出更高的性能,平均准确率上升到 61.1%,比基线高出 5.3%。然而,将 PD 与 SD 和 FGQA 一起包括在内只能实现有限的增益,平均准确率达到 60.9%。这可能是因为通过 PD 获得的知识部分包含在 SD 任务中,而 SD 任务也需要了解姿态信息。

尽管如此,所提出的代理任务显著提高了模型性能,达到了 61.1% 的平均准确率。作为参考,如第 5.2 节所述,使用手动注释训练模型的平均准确率为 67.6%,展示了代理任务减少对昂贵的手动标签依赖的能力。

- 组合代理任务和手动注释。我们的代理任务与手动注释相结合时,可进一步提高性能。如第 5.2 节所述,我们的最终模型最初在代理任务上进行训练,然后再使用手动注释的数据。表 5.2 中的最后一行显示,与仅使用手动注释进行训练相比,代理任务的预训练将模型准确率从 67.6% 提高到 69.4%。 代理任务可以提高大多数任务的性能,但临时定位除外。这可能是由于代理任务训练中缺少真正的长视频,影响了模型处理时间变化的能力。

- 参数融合策略。根据上面的实验分析,代理任务可能会削弱模型捕获长序列的能力。 因此,我们研究了针对此问题的参数融合策略:在使用代理任务进行训练后,我们将模型参数的加权平均值与基线模型应用于基线模型,该模型是在视频指令调优数据集上训练的。 结果如表 5.2 所示。我们可以观察到,通过参数融合策略,所提出的代理任务可以将模型性能进一步提高到 63.0%,这仅比仅使用手动标记数据训练的模型低 4.6%。

图 6:从视频直接生成 QA 与我们提议的管道的比较。直接从视频生成 QA 通常会导致冲突。如图所示,C和D选项对于“男人什么时候戴上耳机? ”这个问题都是正确的。随着 QA 粒度的增加,更有可能出现冲突,因为现有的 MLML 难以感知视频中的所有精细细节。

6结论

在这项工作中,我们提出了 ActionArt,这是一个具有挑战性的基准测试,旨在评估 MLLM 在细粒度的以人为中心的视频理解方面的性能。我们将此任务分为七个子任务,以评估模型在各个维度上的能力。我们的实验结果表明,目前的 MLLM 在以人为中心的视频中难以捕获细粒度的空间细节和时间变化。 由于获取手动标签的成本很高,我们研究了精细的以人为中心的视频理解的固有挑战,并设计了相应的代理任务作为解决方案。通过对这些任务的精心设计,我们促进了训练数据的自动生成,从而减少了对昂贵的手动标记的依赖。广泛的实验表明,我们提出的代理任务显著提高了模型性能。

限制和未来的工作。 我们的工作是从数据驱动的角度开发的,因此,它受到当前 MLLM 现有局限性的限制。例如,受限的上下文长度限制了输入帧的数量,而计算人工作等详细任务需要更多的帧才能有效。但是,我们的方法有可能在未来与 MLLM 架构优化工作集成以克服这些限制。

相关文章:

  • Golang|分布式索引架构
  • Go 语言入门:(一) 环境安装
  • uniapp 微信小程序遇到的坑
  • 8.Three.js中的 StereoCamera 立体相机详解+示例代码
  • 鼠标获取坐标 vs 相机获取坐标
  • Vue 2 和 Vue 3 中 Vue 实例变量方法的功能差异对比,包含关键方法的详细说明和表格总结
  • 网工备考考纲变化总结
  • ElasticSearch深入解析(五):如何将一台电脑上的Elasticsearch服务迁移到另一台电脑上
  • 详解RabbitMQ工作模式之工作队列模式
  • 定时器的源码介绍与简单实现——多线程编程简单案例[多线程编程篇(5)]
  • Java方法执行机制与入口点实现深度解析
  • HarmonyOS SDK助力鸿蒙版今日水印相机,真实地址防护再升级
  • 第36课 常用快捷操作——用“鼠标右键”退出当前命令
  • RestRequest ,newtonsoft解析
  • 在VS2022中使用Lua与c交互(二)
  • 佛山大旺高新区3650 M5 ERP服务器维修案例
  • 服务器部署flask
  • 第十四章-PHP与HTTP协议
  • 微信聊天机器人搭建 教程/开发
  • 12前端项目----添加购物车1.0
  • 李公明|一周画记:哈佛打响第一枪
  • 加拿大驾车撞人事件遇难人数升到11人
  • 凝聚多方力量,中国农科院油菜产业专家团部署单产提升新任务
  • 生于1987年,万宏宇已任内蒙古鄂温克旗委常委
  • 网贷放款后自动扣除高额会员费,多家网贷平台被指变相收取“砍头息”
  • 解码人格拼图:探索心理健康的多维视角