1.推荐一个3d动漫人物设计的人物人物软件
2.腾讯T2I-adapter源码分析(1)-运行源码跑训练
3.详解视频中动作识别模型与代码实践
4.UE4动画系统播放Montage源码浅析(二)
推荐一个3d动漫人物设计的软件
推荐软件:Blender。 Blender是动作动作一款强大的三维动画制作软件,适用于动漫人物设计。源码源码它具有全面的人物人物建模、动画、动作动作渲染和后期制作功能。源码源码新梦幻古龙源码 Blender的人物人物特点如下: 丰富的建模工具。Blender提供了丰富的动作动作建模功能,包括多边形建模、源码源码UV展开和纹理映射等,人物人物可以满足动漫人物设计的动作动作各种需求。用户可以轻松创建复杂的源码源码角色模型,并进行细致的人物人物调整和优化。 强大的动作动作动画功能。Blender的源码源码动画功能非常强大,用户可以轻松创建流畅的动画效果。它提供了骨骼绑定、动作捕捉和表情动画等功能,使得动漫人物的动作更加生动自然。 卓越的渲染性能。Blender内置了高质量的渲染器,支持多种渲染引擎和材质编辑器。用户可以轻松实现逼真的光影效果和细腻的纹理细节,使得动漫人物更加生动真实。 开放源代码和社区支持。Blender是一款开源软件,用户可以自由获取源代码并进行自定义开发。此外,Blender拥有庞大的用户社区,用户可以在社区中寻求帮助、分享经验和交流技巧。 Blender还具备易学易用的特点,对于初学者来说非常友好。它提供了丰富的教程和文档,帮助用户快速入门并提升技能。ios 开源项目源码 总的来说,Blender是一款非常强大的三维动画制作软件,适用于动漫人物设计。它提供了丰富的工具和功能,可以满足用户的各种需求。无论是初学者还是专业人士,都可以通过使用Blender来创建出色的动漫人物作品。腾讯T2I-adapter源码分析(1)-运行源码跑训练
稳定扩散、midjourney等AI绘图技术,为人们带来了令人惊叹的效果,不禁让人感叹技术发展的日新月异。然而,AI绘图的可控性一直不是很好,通过prompt描述词来操控图像很难做到随心所欲。为了使AI绘制的图像更具可控性,Controlnet、T2I-adapter等技术应运而生。本系列文章将从T2I-adapter的源码出发,分析其实现方法。
本篇是第一篇,主要介绍源码的运行方法,后续两篇将以深度图为例,分别分析推理部分和训练部分的代码。分析T2I-Adapter,也是为了继续研究我一直在研究的课题:“AI生成同一人物不同动作”,例如:罗培羽:stable-diffusion生成同一人物不同动作的尝试(多姿势图),Controlnet、T2I-adapter给了我一些灵感,后续将进行尝试。
T2I-Adapter论文地址如下,它与controlnet类似,都是在原模型增加一个旁路,然后对推理结果求和。
T2I-Adapter和controlnet有两个主要的登录界面模板源码不同点,从图中可见,其一是在unet的编码阶段增加参数,而controlnet主要是解码阶段;其二是controlnet复制unit的上半部结构,而T2I-Adapter使用不同的模型结构。由于采用较小的模型,因此T2I-Adapter的模型较小,默认下占用M左右,而controlnet模型一般要5G空间。
首先确保机器上装有3.6版本以上python,然后把代码clone下来。随后安装依赖项,打开requirements.txt,可以看到依赖项的内容。然后下载示例,下载的会放到examples目录下。接着下载sd模型到model目录下,再下载T2I-Adapter的模型到目录下,模型可以按需到huggingface.co/TencentA...下载。这里我下载了depth和openpose。sd模型除了上述的v1-5,也还下载了sd-v1-4.ckpt。
根据文档,尝试运行一个由深度图生成的例子,下图的左侧是深度图,提示语是"desk, best quality, extremely detailed",右侧是生成出来的。运行过程比较艰辛,一开始在一台8G显存的服务器上跑,显存不够;重新搭环境在一台G显存的服务器上跑,还是不够;最后用一台G显存的服务器,终于运行起来了。
接下来尝试跑openpose的例子,下图左侧是骨架图,提示词为"Iron man,php人脸识别源码 high-quality, high-res",右侧是生成的图像。
既然能跑推理,那么尝试跑训练。为了后续修改代码运行,目标是准备一点点数据把训练代码跑起来,至于训练的效果不是当前关注的。程序中也有训练的脚步,我们以训练深度图条件为例,来运行train_depth.py。
显然,习惯了,会有一些问题没法直接运行,需要先做两步工作。准备训练数据,分析代码,定位到ldm/data/dataset_depth.py,反推它的数据集结构,然后准备对应数据。先创建文件datasets/laion_depth_meta_v1.txt,用于存放数据文件的地址,由于只是测试,我就只添加两行。然后准备,图中的.png和.png是结果图,.depth.png和.depth.png是深度图,.txt和.txt是对应的文本描述。
文本描述如下,都只是为了把代码跑起来而做的简单设置。设置环境变量,由于T2I-Adapter使用多卡训练,显然我也没这个环境,因此要让它在单机上跑。而代码中也会获取一些环境变量,因此做简单的冒险与挖矿 源码设置。
做好准备工作,可以运行程序了,出于硬件条件限制,只能把batch size设置为1。在A显卡跑了约8小时,完成,按默认的配置,模型保存experiments/train_depth/models/model_ad_.pth。那么,使用训练出来的模型试试效果,能生成如下(此处只是为了跑起来代码,用训练集来测试),验证了可以跑起来。
运行起来,但这还不够,我们还得看看代码是怎么写法,下一篇见。
PS:《直观理解AI博弈原理》是笔者写的一篇长文,从五子棋、象棋、围棋的AI演进讲起,从深度遍历、MAX-MIN剪枝再到蒙特卡罗树搜索,一步步介绍AI博弈的原理,而后引出强化学习方法,通俗易懂地介绍AlphaGo围棋、星际争霸强化学习AI、王者荣耀AI的一些强化学习要点,值得推荐。
AUTOMATIC的webui是近期很流行的stable-diffusion应用,它集合stable-diffusion各项常用功能,还通过扩展的形式支持controlnet、lora等技术,我们也分析了它的源码实现,写了一系列文章。
详解视频中动作识别模型与代码实践
摘要:本文详细解析视频动作识别的经典模型,并通过代码实践进行演示。视频动作识别涉及分析一段视频内容,判断其中的人物动作。与图像识别相比,视频分析需要考虑时间顺序和动作之间的关联性。由于视频分析的计算资源需求高,数据量庞大,并且需要处理时序因素,模型参数量也相应增加。然而,基于已有的图像模型,如ImageNet,可以有效应用于视频模型训练,提高训练效果。本文将介绍视频动作识别领域的经典模型,包括旧模型和新模型,并通过代码实现进行实践。
视频动作识别旨在解析视频内容,识别出人物所做的动作。这一领域相较于图像识别,不仅要分析静态,还要考虑序列间的时空关系。例如,仅凭一张无法确定某人扶门的意图是开门还是关门。
视频分析领域发展相对较晚,与图像分析领域相比,面临着更大的挑战。主要难点在于需要强大的计算资源来处理视频内容,视频转换为进行分析导致数据量庞大。此外,视频分析模型需考虑时间顺序,通过时间关系联系图像,进行判断,这增加了模型的复杂性和参数量。
得益于PASCAL VOC、ImageNet、MS COCO等数据集的公开,图像领域诞生了许多经典模型。视频动作识别领域同样存在经典模型,本案例将详细介绍这些模型,并通过代码实践进行演示。首先,本案例将准备所需源代码和数据,通过ModelArts SDK将资源下载并解压。
UCF-数据集将被选作为演示数据集,演示视频动作识别模型。接下来,我们将介绍视频动作识别的经典模型,从旧模型到新模型,逐步解析模型结构和工作原理。旧模型包括卷积网络+LSTM、3D卷积网络以及Two-Stream网络,新模型则引入了更有效的Two-Stream Inflated 3D ConvNets(I3D)模型,利用光流数据增强动作识别能力。
为了捕获图像间的时空关系,I3D模型结合了多种结构改进,如光流计算和时间序列分析,有效提升模型识别精度。通过代码实现,我们将分别实践C3D模型(3D卷积网络)和I3D模型(Two-Stream Inflated 3D ConvNets),并展示训练过程、模型结构和具体实现细节。
本案例将重点介绍C3D模型和I3D模型的结构与训练过程。C3D模型采用3D卷积网络处理视频,结合LSTM捕捉时间序列信息。I3D模型则在C3D基础上引入光流计算,增强模型对视频动作的识别能力。通过代码实践,读者将深入了解视频动作识别的经典模型和实际应用。
在代码实现部分,我们将详细展示如何准备数据、构建模型结构、训练和测试模型的过程。例如,对于C3D模型,我们将讲解数据预处理、构建模型、训练模型和评估模型的方法。对于I3D模型,我们将介绍模型结构、参数定义、数据处理和模型预测的实现方式。
通过本案例的代码实践,读者将能够亲自动手实现视频动作识别模型,理解模型原理,掌握模型训练与测试的关键步骤。这不仅有助于深入理解视频动作识别领域,还能为实际应用打下坚实的基础。
UE4动画系统播放Montage源码浅析(二)
在先前的文章中,我们对UE4动画蒙太奇播放过程进行了探讨,本篇将深入解析蒙太奇的其他相关知识,包括蒙太奇插槽、蒙太奇片段和动画片段等。所分析的源码版本为4.。
关于蒙太奇结构,UAnimMontage蒙太奇动画可视为一种动态表现手段,无需将混合空间或动画序列拖入动画蓝图,只需在动画蓝图里放置一个FAnimNode_Slot动画节点,即可通过montage_play接口播放该插槽下的所有蒙太奇资源。
这意味着我们无需修改动画蓝图,就可以播放全新的动作。
蒙太奇动画除了动态播放动作外,还有更多应用。例如,现实中的蒙太奇概念。蒙太奇(montage)在法语中意为“剪接”,但在俄国,它被发展成一种**中镜头组合的理论。例如,将母亲煮菜、洗衣、带小孩、父亲看报等镜头放在一起,会给人一种母亲“忙碌”的感觉,从而产生对比手法,突出人物或事物的具体特征,两个不同的片段之间相互联系,产生意想不到的效果。
如上所述,这类动画被称为蒙太奇,因为它还包括剪接、片段、组合等特点,可用于循环播放动画、跳转到下一个动画等。
创建一个动画序列的蒙太奇,会看到如下面板:区域1为蒙太奇插槽,在动画蓝图中也要有对应插槽节点才会播放此蒙太奇;蒙太奇资源中可以添加多个插槽。区域2为蒙太奇片段,蒙太奇资源中可以创建多个片段并设置它们之间的关系,用于动画的跳转、循环等。区域3为动画片段,每个插槽下可以添加多个动画片段。
蒙太奇片段对应上图示例有三个片段:Default、Loop、End,我们可以设置它们之间的关系。图中Default片段后面的箭头图标表示播放完毕后会接着播放Loop,Loop片段后的循环图标表示循环播放Loop。如果我们显式跳转到End片段,End片段后面没有其他片段,那么播放结束后就结束了。
蒙太奇片段是独立的,与插槽、动画片段没有任何关系,它只是根据蒙太奇片段之间的关系确定当前播放时间。了解了蒙太奇片段的作用,我们来看具体实现。其数据结构如下:蒙太奇片段由FCompositeSection结构描述,CompositeSections就是蒙太奇资源上序列化的蒙太奇片段数组。
了解了基本数据结构,再看如何根据动画片段获取蒙太奇姿势。结合上一篇文章,姿势获取最后是调用FAnimInstanceProxy::SlotEvaluatePose函数,并遍历MontageEvaluationData数据(其中包含蒙太奇实例的时间、权重、蒙太奇引用等数据)。
以上便是关于UE4动画系统播放Montage源码的解析,希望对大家有所帮助。