• 首页
  •   >   学院新闻
  •   >   正文
  • 学院新闻

    【动画一流专业建设】2024年度国家艺术基金《中国传统皮影数字化创新人才培训》分组联合创作(七)

    [成大中国东盟艺术学院影动学院]    发布日期:2024-07-17    浏览次数:

    文:秦洁 来源:动画系 审核:张娟

    7月17日,成都大学中国-东盟艺术学院影视与动画学院杨明博士、副教授、博士生导师以《AIGC Stable Diffusion创作与实践详解》为主题,围绕图像生成技术Stable Diffusion与皮影的结合进行授课。

    杨明博士简要介绍了AIGC对动画专业的冲击。他从Stable Diffusion的底层逻辑、提示词、Lora模型、ControlNet、采样器等方面详细讲解了Stable Diffusion如何通过输入关键词或示例图像,以文生图、图生图等方式对图像进行处理。Stable Diffusion作为一种深度学习文本到图像的生成模型,不仅为图像创作提供了新的可能性,还在多个领域展现出了广泛的应用潜力。Stable Diffusion技术的核心在于其基于潜在扩散模型的架构。相比传统的生成对抗网络(GAN)和变分自编码器(VAE),Stable Diffusion采用了更加稳定、可控和高效的方法来生成高质量图像。

    他表示,Stable Diffusion技术的优点在于其更高的稳定性、更快的训练速度和更易于优化的网络结构。ControlNet作为一个强大的插件,为Stable Diffusion引入了新的控制方式,使得生成的人物姿势、景深、线稿上色等细节更加稳定可控。这种控制方式不仅提高了生成图像的质量,也使得生成结果更加符合用户的期望和需求。同时可以通过添加额外的条件来控制这些细节,从而实现对生成图像的精准控制。

    其次,ControlNet的引入提高了生成图像的稳定性。在传统的图像生成方法中,由于模型的不确定性和随机性,生成结果往往存在较大的差异。而ControlNet通过对扩散模型的精确控制,使得生成结果更加一致和稳定。这意味着用户可以获得更加可靠的生成结果,减少了随机性和不确定性。此外,ControlNet还具有很高的灵活性。它可以接收并处理各种条件输入,如涂鸦、边缘映射、分割映射、pose关键点等。这使得用户可以根据自己的需求选择合适的条件输入,从而实现对生成图像的多样化控制。无论是想要保持原图的构图,还是想要迁移人物姿势特征,ControlNet都能提供有效的解决方案。

    此次关于AIGC的创作实践增加了学员们关于皮影数字化创新更多的可能性,推动了皮影数字化创作领域的创新和发展。通过结合传统创作方式和AIGC技术,学员们能够探索出更多新的创作形式和风格。课程结束后,各创作组根据各组项目进度继续进行联合创作,从皮影造型、剧本修订、皮影雕刻上色等多方面持续推进。

    编辑:谭运环 责编:陈扬





    关注二维码