侧边栏壁纸
博主头像
秋码记录

一个游离于山间之上的Java爱好者 | A Java lover living in the mountains

  • 累计撰写 144 篇文章
  • 累计创建 323 个标签
  • 累计创建 47 个分类

保持角色一致性的绘本生成AI开源项目之Story-Adapter本地部署Windows篇

在人工智能领域,生成一致且连贯的故事绘本一直是一个具有挑战性的任务。Story-Adapter作为一个开源项目,旨在解决这一问题,为用户提供无需训练即可生成长篇故事视觉化的工具。本文将指导您如何在Windows系统上本地部署并运行Story-Adapter。

项目简介

Story-Adapter项目提出了一种无需训练的迭代框架,用于长篇故事的可视化生成,特别关注在生成过程中保持角色的一致性。通过利用现有的文本到图像生成模型,Story-Adapter能够根据输入的故事文本,生成一系列连贯且一致的图像帧,适用于绘本创作、动画制作等领域。

项目地址:https://github.com/UCSC-VLAA/story-adapter

环境准备

从项目的README.md中有关于本地安装的必要条件:

  • Python 3.10.14
  • PyTorch 2.2.2
  • CUDA 12.1
  • cuDNN 8.9.02

虽然官方是通过anaconda来创建python项目的虚拟环境,这也官方推荐的,可以说是所有开源AI 项目的友好方式。

然而我却不使用anaconda,而使用python自带创建虚拟环境的方式。

python -m venv story-adapter-env #创建 story-adapter-env 虚拟环境
cd story-adapter-env\Script
activate #激活虚拟环境

1. 安装Python

前往Python官方网站下载适用于Windows的最新版本Python安装包。在安装过程中,务必勾选“Add Python to PATH”选项,以便在命令提示符中直接使用Python命令。

我安装的是python 3.10.9

2.安装Git

访问Git for Windows下载并安装Git。安装完成后,您可以在命令提示符中使用git命令。

3.安装CUDA

如果您的计算机配备了NVIDIA GPU,并希望利用GPU加速,请前往NVIDIA官方网站下载并安装适用于您GPU型号的CUDA Toolkit。

5d6e61a7b870b3988c1eb907830e93a

4f10a878bfc91d52e542e9f818a9ab3

克隆项目代码

执行以下命令以克隆Story-Adapter项目代码:

git clone https://github.com/UCSC-VLAA/story-adapter.git
cd story-adapter

此操作将在当前目录下创建一个名为story-adapter的文件夹,包含项目的所有代码。

安装依赖项

pip install-r requirements.txt-i https://pypi.tuna.tsinghua.edu.cn/simpe/

e3f41bd719bed6f7eb658b00a405f17

73585185b776618afd0e63bcfe21643

下载模型

在下载模型,请提前准备好网络(你应该懂的什么是网络吧)。

按照官方的指引来下载对应的模型,及存放的位置。

Download the checkpoint

  • downloading RealVisXL_V4.0 put it into “./RealVisXL_V4.0”

  • downloading clip_image_encoder put it into “./IP-Adapter/sdxl_models/image_encoder”

  • downloading ip-adapter_sdxl put it into “./IP-Adapter/sdxl_models/ip-adapter_sdxl.bin”

    image-20250216182416882

    image-20250216182459383

    c5542ae6e37b6c66f514bd519ad2802

其他也是同样的操作哦,前提你得先设置好git网络哦,否则会下载不了哦。

等你模型下载好了之后,项目目录结构最终如下图所示。

image-20250216182829100

image-20250216183430072

运行项目

由于run.py文件已经配置好参数,所以我们就是用默认的,官方提供了6个故事prompt,我选择了第三个。

image-20250216183738441

python run.py #也可以通过命令行参数进行传递, --story story4

72728e9d8e3dacf0b5a647826095953

会在当前项目根路径下自动创建story文件夹。

image-20250216184109549

从这些图片可以看出,这是一个男人出海,不幸遇上风浪,被飘到原始森林,当然船只也坏了,而后他通过自己打造一只船,再次踏出海,索性的是,这回总算是回到了,日思夜想的故乡,与妻子相聚。在接下来的日子,他便将这段经历通过文字,记录了下来。或许是常年与大海打交道,身体终究还是抗不住那通风的折磨,住进了医院。

本地部署 Stable Diffusion 3.5(最新 ComfyUI记录篇)
« 上一篇 2025-02-03
一套由 Hugo 驱动的博客主题 hugo-theme-kiwi 开源啦
下一篇 » 2023-12-24

相关推荐

  • 本地部署 Stable Diffusion 3.5(最新 ComfyUI记录篇) 2025-02-03 20:26:43 +0800 +0800
    本地部署 Stable Diffusion 3.5(最新 ComfyUI记录篇) 当你在看到文章标题,以及发布时间时,想必你是不会继续浏览下去的,这一点,是可以理解的,换做是我,也会做出同样的抉择。 既然如此,而又为什么又要写这篇文章呢? 其一,之所以没能在Stable Diffusion3.5发布时,在本地电脑部署它,那是因为彼时的老破电脑是不足以安装它的。 其二,赤巨资购买了可以把玩Machine Learning的高配电脑,这才想要在新电脑中部署Stable Diffusion3.5这个文生图大模型,故此,将本地部署过程记录下。 模型大小的区别 Stable Diffusion3.5发布三个不同参数的模型,分别是Medium、Large Turbo、Large。 Stable Diffusion 3.5 Large:该基础型号拥有 80 亿个参数,质量卓越,响应迅速,是 Stable Diffusion 系列中最强大的型号。该型号非常适合 1 百万像素分辨率的专业用例。 稳定扩散 3.5 Large Turbo:稳定扩散 3.5 Large 的精简版仅需 4 个步骤即可生成高质量图像,且具有出色的快速依从性,速度比稳定扩散 3.5 Large 快得多。 Stable Diffusion 3.5 Medium: 该模型拥有 25 亿个参数,采用改进的 MMDiT-X 架构和训练方法,可在消费级硬件上“开箱即用”,在质量和定制易用性之间取得平衡。它能够生成分辨率在 0.25 到 2 百万像素之间的图像。 可以从Hugging Face下载 Stable Diffusion 3.5 Large 【点击下载】 推荐16G以上显存 Stable Diffusion 3.5 Large Turbo 【点击下载】 推荐8G以上显存 安装 下载最新 ComfyUI 我们可以在github.com下载ComfyUI官方打包版,ComfyUI v0.3.13 当然咯,你也是可以下载源码,进行编译。 下载适合自己电脑显存的模型 在Huggingface.co下载Stable Diffusion3.
       AI