🪟使用 ComfyUI 绘制漫画是一个相对复杂但非常强大的过程,因为它能让你对每一格漫画的生成都有精细的控制

使用 ComfyUI 绘制漫画是一个相对复杂但非常强大的过程,因为它能让你对每一格漫画的生成都有精细的控制
type
status
date
slug
summary
category
tags
password
icon
使用 ComfyUI 绘制漫画是一个相对复杂但非常强大的过程,因为它能让你对每一格漫画的生成都有精细的控制。这通常涉及到多个步骤和对各种节点(尤其是 ControlNet 和 LoRA)的运用。
以下是一个大致的流程和关键点,你可以根据具体需求调整:
核心思路:
  1. 规划故事和分镜: 在进入 ComfyUI 之前,先构思好你的漫画故事、角色、场景以及每个画格(Panel)的内容和构图。
  1. 角色和风格一致性: 这是漫画创作的关键。你需要方法来确保角色在不同画格中看起来一致,并且整体风格统一。
  1. 逐格生成: ComfyUI 的核心是逐个生成图像。你需要为每个画格设置不同的提示词和可能的控制条件。
  1. 后期编辑: ComfyUI 主要负责图像生成。对话气泡、排版、最终调整通常在图像编辑软件(如 Photoshop, GIMP, Krita, Clip Studio Paint)中完成。
ComfyUI 中的关键节点和技术:
  1. 基础模型 (Checkpoint Loader):
      • 选择一个适合漫画风格的基础模型。有些模型本身就偏向动漫或插画风格(例如 Anything 系列、Counterfeit 等)。
      • 加载对应的 VAE。
  1. 提示词 (CLIP Text Encode):
      • 正面提示词 (Positive Prompt):
        • 描述画格内容:场景、角色动作、表情、物体。
        • 风格关键词:comic style, manga, graphic novel, line art, flat colors, cel shading 等。
        • 角色描述(如果不用 LoRA 或 IPAdapter):尽可能详细,但保持一致性很难。
      • 负面提示词 (Negative Prompt): 排除不想要的元素,如 blurry, ugly, bad anatomy, extra limbs
  1. 角色一致性方案 (非常重要):
      • LoRA (Load LoRA):
        • 角色 LoRA: 如果你有特定角色的 LoRA,这是保持角色一致性的最佳方法。在提示词中触发它。
        • 风格 LoRA: 可以使用漫画风格的 LoRA 来强化艺术风格。
      • IPAdapter (Image Prompt Adapter) / ControlNet Preprocessor - Reference:
        • 使用一张清晰的角色参考图(或多张不同角度的参考图)通过 IPAdapter 节点来影响生成图像中的角色外观。这对于没有角色 LoRA 的情况非常有用。
        • 你需要 IPAdapterModelLoader 加载 IPAdapter 模型,然后通过 IPAdapterApply 或类似节点将其连接到你的 KSampler。
      • ControlNet (Apply ControlNet / ControlNetApplyAdvanced):
        • OpenPose: 控制角色的姿势。你可以提供一个姿势骨骼图。
        • Canny/Lineart/Scribble: 如果你有草图或线稿,可以用这些 ControlNet 来指导构图和线条。
        • Depth: 控制场景的深度和物体的前后关系。
        • Inpaint (结合遮罩): 如果你想在已有背景上添加角色,或者修改局部,可以使用 Inpaint ControlNet。
      • Seed (KSampler): 在初始阶段,尝试为同一角色使用相近的 Seed,或者固定 Seed 然后只改变提示词中的动作描述,有助于保持一些相似性。但过度依赖 Seed 会限制创造性。
  1. KSampler (或 KSamplerAdvanced):
      • 核心的图像生成节点。
      • seed: 控制随机性。
      • steps, cfg: 采样步数和CFG Scale。
      • sampler_name, scheduler: 选择合适的采样器和调度器。
  1. 图像尺寸 (Empty Latent Image):
      • 设置每个画格的宽高比和尺寸。考虑最终排版。
  1. 批量处理/迭代 (重要技巧):
      • 手动迭代:
          1. 设置好一个画格的完整工作流。
          1. 生成第一格。
          1. 修改提示词、ControlNet 输入(例如新的姿势图)等,以适应下一格的内容。
          1. 点击 "Queue Prompt" 生成下一格。
          1. 重复此过程。
      • 使用批处理节点 (更高级):
        • 一些自定义节点包(如 WAS Node Suite, Impact Pack)提供了文本批处理、数字批处理等功能。你可以创建一个提示词列表,让 ComfyUI 自动为列表中的每个提示词生成一个图像。
        • 例如,WAS Node Suite 的 Text ListLatent List Batch 配合使用,可以一次性为多个不同的文本提示生成一批图像。
        • 这需要更深入地学习特定自定义节点的用法。
漫画创作流程示例 (简化版,手动迭代):
准备阶段:
  • 规划好你的漫画故事板,至少前几个画格。
  • 准备好角色参考图 (如果使用 IPAdapter) 或角色 LoRA。
  • 准备好姿势参考图 (如果使用 OpenPose ControlNet)。
ComfyUI 工作流搭建 (以单格为例,后续迭代):
  1. 加载器 (Loaders):
      • Load Checkpoint (选择你的漫画风格模型)
      • Load VAE (如果模型不自带 VAE)
      • (可选) Load LoRA (加载角色 LoRA 和/或风格 LoRA)
      • (可选) IPAdapterModelLoader (如果使用 IPAdapter)
      • (可选) ControlNetLoader (加载 OpenPose, Canny 等 ControlNet 模型)
  1. 提示词 (Prompts):
      • CLIPTextEncode (Positive): 输入该画格的描述,触发 LoRA (如 <lora:character_name:0.8>),加入风格词。
        • 例 Panel 1: comic style, boy standing, looking surprised, <lora:my_char:0.8>, detailed background city street
      • CLIPTextEncode (Negative): 输入负面提示词。
  1. ControlNet (如果使用):
      • Load Image (加载你的 OpenPose 姿势图或线稿草图)
      • OpenPosePreprocessor / CannyPreprocessor 等预处理器
      • ControlNetApplyAdvanced (将预处理后的图像和 ControlNet 模型连接到这里,再连接到 KSampler)
      • (如果使用 IPAdapter) Load Image (加载角色参考图) -> IPAdapterApply (连接模型、IPAdapter 模型、参考图,输出连接到 KSampler 的 positive/negative conditioning)
  1. 潜空间 (Latent Space):
      • EmptyLatentImage (设置画格尺寸,如 512x768 或 768x512)
  1. 采样器 (Sampler):
      • KSamplerKSamplerAdvanced
        • 连接模型、正面/负面提示词、潜空间。
        • 如果使用了 ControlNet,将 ControlNet 的输出 (通常是 conditioning) 连接到 KSampler 的正面/负面提示词输入端(通常是先通过一个 ConditioningCombine 节点合并原提示词和 ControlNet conditioning)。
        • 如果使用了 IPAdapter,它会修改 conditioning。
  1. 解码和保存 (Decode & Save):
      • VAEDecode (将 KSampler 输出的 latent 连接到这里)
      • SaveImage / PreviewImage
迭代生成后续画格:
  1. 保存工作流! (非常重要,方便以后加载)
  1. 对于下一格漫画
      • 修改 CLIPTextEncode (Positive) 中的描述:新的场景、角色动作、表情。
      • 如果使用 ControlNet:
        • OpenPose: Load Image 节点加载新的姿势图。
        • Canny/Scribble: Load Image 加载新的草图。
      • 如果使用 IPAdapter 且角色表情/角度有较大变化,可以考虑更换或调整角色参考图。
      • Seed: 可以尝试保持 Seed 固定,或者略微增加一点 (e.g., seed + 1) 来看效果。如果需要较大变化,就用新的随机 Seed。
      • 点击 Queue Prompt 生成。
  1. 重复此步骤,直到所有画格生成完毕。
后期处理:
  1. 将所有生成的画格导入图像编辑软件。
  1. 排版,调整大小和位置。
  1. 添加对话气泡和文字。
  1. 进行颜色校正、细节修饰等。
重要建议:
  • 从小处着手: 先尝试生成单个具有漫画风格的图像,熟悉节点和流程。
  • 善用自定义节点: WAS Node Suite, Impact Pack, Efficiency Nodes 等包里有很多能简化流程或提供高级功能的节点。
  • 迭代和实验: AI 绘画需要大量尝试。不要期望一次成功。
  • 组织你的工作流: 给节点分组、上色、添加注释,让复杂的流程更清晰。
  • 保存中间版本: 对于满意的画格,及时保存。
  • 学习 ControlNet 和 IPAdapter: 这是实现漫画中特定构图和角色一致性的关键。
这个过程可能听起来复杂,但 ComfyUI 的模块化特性一旦掌握,就能提供无与伦比的创作自由度。祝你创作顺利!
上一篇
我们来比较一下 ComfyUI 和 Automatic1111 WebUI(通常简称为 A1111),这是目前最流行的两个 Stable Diffusion 用户界面
下一篇
"贝锐蒲公英" 指的是由 贝锐科技 (Oray) 开发的一款名为 "蒲公英" (Pgyer) 的软件服务,它专注于异地智能组网
Loading...