- 简介在这篇基于研究项目的论文中,我们使用双向长短期记忆(BiLSTM)网络提供了一种新颖的战斗场景检测(FSD)模型,可用于基于深度学习和神经网络的电影精华生成系统(MHGS)。电影通常有战斗场景来让观众惊叹。对于预告片生成或任何其他精华生成的应用程序,首先手动识别所有这些场景,然后编译它们以生成符合目的的精华非常繁琐。我们提出的FSD系统利用电影场景的时间特征,因此能够自动识别战斗场景。从而有助于有效制作引人入胜的电影精华。我们观察到,所提出的解决方案具有93.5%的准确度,高于92%准确度的2D CNN和显着高于65%准确度的3D CNN。
- 图表
- 解决问题本论文提出了一个基于深度学习和神经网络的Fight Scene Detection (FSD)模型,旨在解决电影高光时刻生成系统中的场景识别问题。通过自动识别电影中的打斗场景,帮助有效制作引人入胜的电影高光片段。
- 关键思路本文提出的FSD系统利用电影场景的时间特征,通过双向长短时记忆网络(BiLSTM)自动识别打斗场景,相比于当前领域的研究,精度达到93.5%,高于2D CNN和Hough Forests的92%和3D CNN的65%。
- 其它亮点本文的实验设计中使用了数据集进行验证,并开源了代码。该模型的精度表现优异,有望在电影高光片段制作中得到广泛应用。值得进一步深入研究。
- 在该领域的相关研究中,最近的一些论文包括:《A Deep Learning-Based Approach for Action Recognition in Videos》、《Video Action Recognition with Spatial Temporal Graph Convolutional Networks》等。
沙发等你来抢
去评论
评论
沙发等你来抢