Stable Diffusion核心技术:从VAE到CLIP的完整技术栈
本文深入解析了Stable Diffusion的四大核心技术组件:VAE编码器负责将图像压缩到潜在空间并重建,CLIP文本编码器将自然语言转换为高维向量表示,UNet网络通过注意力机制实现精确的文本条件控制,扩散过程和噪声调度算法则在潜在空间中高效地进行去噪生成。这些组件协同工作,构成了文本到图像生成的技术基石。
变分自编码器(VAE)在潜在空间的作用
在Stable Diffusion的架构中,变分自编码器(Variational Autoencoder, VAE)扮演着至关重要的角色,它作为连接像素空间和潜在空间的桥梁,实现了高效的计算和高质量的图像生成。VAE的核心作用是将高维的图像数据压缩到低维的潜在表示中,在这个压缩后的空间中进行扩散过程,最后再将潜在表示解码回高质量的图像。
VAE的编码-解码架构
VAE采用编码器-解码器的对称结构,通过非线性变换实现图像到潜在空间的映射和反向映射:
graph TD
A[原始图像 512×512×3] --> B[编码器 Encoder]
B --> C[潜在表示 64×64×4]
C --> D[扩散过程在潜在空间]
D --> E[解码器 Decoder]
E --> F[生成图像 512×512×3]
编码过程:图像到潜在空间
VAE的编码器将输入的RGB图像(通常为512×512×3)压缩到64×64×4的潜在表示,实现了64倍的压缩比。编码过程通过一系列卷积层和下采样操作实现:
def encode(self, x):
h = self.encoder(x) # 通过编码器网络
moments = self.quant_conv(h) # 量化卷积
posterior = DiagonalGaussianDistribution(moments) # 高斯分布参数化
return posterior
编码器输出的潜在表示遵循高斯分布,包含均值(mean)和方差(logvar)两个部分,这种概率化的表示方式为后续的扩散过程提供了随机性基础。
解码过程:潜在空间到图像
解码器执行相反的操作,将64×64×4的潜在表示上采样并重建为512×512×3的RGB图像:
def decode(self, z):
z = self.post_quant_conv(z) # 后量化卷积
dec = self.decoder(z) # 通过解码器网络
return dec
VAE在Stable Diffusion中的技术优势
1. 计算效率的大幅提升
通过在潜在空间而非像素空间进行扩散过程,VAE显著降低了计算复杂度:
| 操作空间 | 分辨率 | 通道数 | 计算复杂度 | 内存占用 |
|---|---|---|---|---|
| 像素空间 | 512×512 | 3 | 高 | 786,432元素 |
| 潜在空间 | 64×64 | 4 | 低 | 16,384元素 |
这种压缩使得在相同硬件条件下能够处理更高分辨率的图像,同时加速了训练和推理过程。
2. 语义保持与信息压缩
VAE通过学习到的压缩表示,能够有效地保留图像的语义信息:
- 局部特征保持:边缘、纹理等细节特征在潜在空间中得到编码
- 全局结构保持:物体的形状、布局等全局信息被有效保留
- 语义抽象:将像素级信息抽象为更高层次的语义表示
3. 概率化表示与随机性引入
VAE的潜在表示不是确定性的,而是概率分布,这为图像生成引入了有益的随机性:
class DiagonalGaussianDistribution:
def sample(self):
# 重参数化技巧:从分布中采样
return self.mean + self.std * torch.randn_like(self.mean)
def mode(self):
# 分布的模式(最可能的值)
return self.mean
这种概率化特性使得相同的输入可以产生略有不同的潜在表示,增加了生成结果的多样性。
VAE架构的技术细节
网络结构配置
在Stable Diffusion中,VAE采用特定的配置参数:
first_stage_config:
target: ldm.models.autoencoder.AutoencoderKL
params:
embed_dim: 4
ddconfig:
double_z: true
z_channels: 4
resolution: 256
in_channels: 3
out_ch: 3
ch: 128
ch_mult: [1, 2, 4, 4]
num_res_blocks: 2
attn_resolutions: []
dropout: 0.0
尺度因子与数值稳定性
VAE在编码和解码过程中使用尺度因子来确保数值稳定性:
def decode_first_stage(self, z):
z = 1. / self.scale_factor * z # 应用尺度因子
return self.first_stage_model.decode(z)
典型的尺度因子值为0.18215,这个值在训练过程中学习得到,用于将潜在表示的数值范围调整到适合扩散过程的状态。
训练目标与损失函数
VAE的训练采用变分下界(ELBO)目标,包含重构损失和KL散度正则项:
lossconfig:
target: ldm.modules.losses.LPIPSWithDiscriminator
params:
disc_start: 50001
kl_weight: 0.000001
disc_weight: 0.5
- 重构损失:确保解码图像与原始图像的相似性
- KL散度:约束潜在分布接近标准正态分布
- 对抗损失:通过判别器提升生成图像的质量
实际应用中的VAE操作
在Stable Diffusion的推理过程中,VAE的核心操作包括:
# 编码阶段:图像到潜在空间
def encode_first_stage(self, x):
return self.first_stage_model.encode(x)
# 解码阶段:潜在空间到图像
def decode_first_stage(self, z):
z = 1. / self.scale_factor * z
return self.first_stage_model.decode(z)
这种设计使得扩散过程可以在计算效率更高的潜在空间中进行,同时通过VAE的解码器保证最终输出图像的质量。
VAE作为Stable Diffusion架构中的关键组件,不仅解决了高分辨率图像生成的计算挑战,还通过其概率化特性为生成过程注入了创造性的随机性,是实现高质量文本到图像生成的技术基石。
CLIP文本编码器的工作原理与实现
在Stable Diffusion的完整技术栈中,CLIP文本编码器扮演着至关重要的角色,它负责将自然语言描述转换为高维向量表示,为扩散模型提供精确的文本条件控制。本文将深入解析CLIP文本编码器的架构设计、工作原理以及在Stable Diffusion中的具体实现。
CLIP架构概述
CLIP(Contrastive Language-Image Pre-training)是OpenAI开发的多模态模型,其核心思想是通过对比学习将图像和文本映射到同一语义空间。CLIP模型由两个主要组件构成:
- 图像编码器:基于Vision Transformer(ViT)或ResNet架构
- 文本编码器:基于Transformer架构
在Stable Diffusion中,主要使用CLIP ViT-L/14文本编码器,该模型具有以下关键特性:
- 77个token的最大序列长度
- 768维的输出嵌入空间
- 冻结的预训练权重,不参与微调
文本编码器架构设计
CLIP文本编码器采用标准的Transformer架构,但针对多模态任务进行了专门优化:
class FrozenCLIPEmbedder(AbstractEncoder):
"""使用Hugging Face的CLIP transformer编码器进行文本编码"""
def __init__(self, version="openai/clip-vit-large-patch14", device="cuda", max_length=77):
super().__init__()
self.tokenizer = CLIPTokenizer.from_pretrained(version)
self.transformer = CLIPTextModel.from_pretrained(version)
self.device = device
self.max_length = max_length
self.freeze()
关键组件说明
-
Tokenizer处理流程:
- 文本输入被分词为subword tokens
- 添加特殊token([SOS]和[EOS])
- 填充或截断到固定长度77个token
-
Transformer编码层:
- 12层Transformer编码器
- 768维隐藏状态
- 12个注意力头
- 3072维前馈网络
-
输出处理:
- 提取最后一层隐藏状态作为文本表示
- 输出形状为[batch_size, 77, 768]
文本编码过程详解
CLIP文本编码器的工作流程可以通过以下序列图清晰展示:
sequenceDiagram
participant User
participant Tokenizer
participant Transformer
participant Output
User->>Tokenizer: 输入文本提示
Tokenizer->>Tokenizer: 分词和填充
Tokenizer->>Transformer: Token IDs序列
Transformer->>Transformer: 12层编码处理
Transformer->>Output: 隐藏状态表示
Output->>User: 768维文本嵌入
具体编码步骤
- 文本预处理:
def forward(self, text):
batch_encoding = self.tokenizer(
text,
truncation=True,
max_length=self.max_length,
return_length=True,
return_overflowing_tokens=False,
padding="max_length",
return_tensors="pt"
)
tokens = batch_encoding["input_ids"].to(self.device)
- Transformer编码:
outputs = self.transformer(input_ids=tokens)
z = outputs.last_hidden_state # 形状: [batch_size, 77, 768]
- 特征提取:
- 使用所有位置的隐藏状态,而非仅使用[EOS]token
- 保留完整的序列信息供交叉注意力机制使用
在Stable Diffusion中的集成
在潜在扩散模型中,CLIP文本编码器作为条件编码器使用:
flowchart TD
A[文本输入] --> B[CLIP文本编码器]
B --> C[768维文本嵌入]
C --> D[UNet交叉注意力层]
D --> E[条件化去噪过程]
E --> F[图像生成]
配置参数
在Stable Diffusion的配置文件中,CLIP编码器的配置如下:
cond_stage_config:
target: ldm.modules.encoders.modules.FrozenCLIPEmbedder
params:
version: "openai/clip-vit-large-patch14"
device: "cuda"
max_length: 77
条件化机制
文本嵌入通过交叉注意力机制注入到UNet中:
def apply_model(self, x_noisy, t, cond):
# cond包含CLIP文本嵌入
# 在UNet的注意力层中进行交叉注意力计算
output = self.model(x_noisy, t, context=cond)
return output
技术特点与优势
1. 冻结参数策略
CLIP文本编码器在训练过程中保持冻结状态,这带来以下优势:
- 训练稳定性:避免文本编码器和扩散模型之间的训练冲突
- 计算效率:减少可训练参数数量,降低内存需求
- 知识保持:保留CLIP在大规模数据上学到的丰富语义表示
2. 序列化输出
与传统的池化输出不同,CLIP提供完整的序列输出:
| 输出类型 | 维度 | 用途 |
|---|---|---|
| 池化输出 | [batch_size, 768] | 分类任务 |
| 序列输出 | [batch_size, 77, 768] | 扩散模型条件化 |
3. 多尺度语义捕获
不同层的注意力头捕获不同层次的语义信息:
# 注意力模式示例
attention_patterns = []
for layer in self.transformer.encoder.layers:
attention = layer.self_attn.attention_pattern
attention_patterns.append(attention)
性能优化策略
1. 内存优化
通过梯度检查点和混合精度训练减少内存使用:
# 启用梯度检查点
self.transformer.gradient_checkpointing_enable()
# 使用混合精度
with torch.autocast('cuda'):
embeddings = self.transformer(input_ids)
2. 批处理优化
支持动态批处理以适应不同长度的文本输入:
def encode_batch(self, texts):
# 动态批处理实现
encodings = []
for text in texts:
encoding = self.encode(text)
encodings.append(encoding)
return torch.stack(encodings)
实际应用示例
文本到嵌入转换
def text_to_embedding(prompt):
# 初始化编码器
text_encoder = FrozenCLIPEmbedder().to('cuda')
# 编码文本
with torch.no_grad():
embedding = text_encoder(prompt)
return embedding # 形状: [1, 77, 768]
# 使用示例
prompt = "a beautiful sunset over the mountains"
embedding = text_to_embedding(prompt)
多提示组合
支持多个文本提示的加权组合:
def combine_prompts(prompts, weights):
embeddings = []
for prompt in prompts:
emb = text_to_embedding(prompt)
embeddings.append(emb)
# 加权平均
combined = torch.zeros_like(embeddings[0])
for i, (emb, weight) in enumerate(zip(embeddings, weights)):
combined += emb * weight
return combined
技术挑战与解决方案
1. 序列长度限制
CLIP的77token限制可能无法处理长文本,解决方案包括:
- 文本摘要:自动提取关键信息
- 分段编码:将长文本分成多个段落分别编码
- 注意力掩码:忽略填充token的影响
2. 语义一致性
确保生成的图像与文本描述保持一致:
def validate_semantic_consistency(text, image):
# 使用CLIP计算文本-图像相似度
text_features = text_encoder(text)
image_features = image_encoder(image)
similarity = F.cosine_similarity(text_features, image_features)
return similarity > 0.3 # 阈值可调整
未来发展方向
CLIP文本编码器的演进方向包括:
- 更长序列支持:扩展token限制以处理更复杂的描述
- 多语言支持:改进非英语文本的编码效果
- 领域适配:针对特定领域进行微调优化
- 动态编码:根据图像内容动态调整文本编码策略
通过深入理解CLIP文本编码器的工作原理和实现细节,开发者可以更好地利用这一强大工具,在Stable Diffusion和其他多模态应用中实现更精确的文本到图像生成效果。
UNet网络架构与注意力机制详解
Stable Diffusion的核心组件UNet网络架构是一个精心设计的深度神经网络,它不仅在图像生成任务中表现出色,更重要的是通过创新的注意力机制实现了文本到图像的精确条件控制。本节将深入解析UNet的网络架构设计原理、注意力机制的工作原理及其在扩散模型中的关键作用。
UNet基础架构设计
UNet采用经典的编码器-解码器结构,具有对称的U形网络设计。在Stable Diffusion中,UNet的主要任务是预测添加到潜在空间中的噪声,通过逐步去噪的过程生成高质量的图像。
网络层次结构
UNet的网络结构包含多个关键组件:
class UNetModel(nn.Module):
def __init__(self, image_size, in_channels, model_channels, out_channels,
num_res_blocks, attention_resolutions, dropout=0,
channel_mult=(1, 2, 4, 8), conv_resample=True, dims=2,
num_classes=None, use_checkpoint=False, use_fp16=False,
num_heads=-1, num_head_channels=-1, num_heads_upsample=-1,
use_scale_shift_norm=False, resblock_updown=False,
use_new_attention_order=False, use_spatial_transformer=False,
transformer_depth=1, context_dim=None, n_embed=None, legacy=True):
核心参数说明:
in_channels: 输入通道数(潜在空间的4个通道)model_channels: 基础通道数(通常为320)attention_resolutions: 注意力分辨率设置(如[4, 2, 1])channel_mult: 通道倍增系数(如[1, 2, 4, 4])context_dim: 条件文本的嵌入维度(768维)
多尺度特征处理
UNet通过下采样和上采样操作处理不同尺度的特征信息:
flowchart TD
A[输入潜在表示<br/>4×64×64] --> B[编码器路径]
B --> C[下采样层1<br/>320通道]
C --> D[下采样层2<br/>640通道]
D --> E[下采样层3<br/>1280通道]
E --> F[瓶颈层<br/>1280通道]
F --> G[上采样层1<br/>1280通道]
G --> H[上采样层2<br/>640通道]
H --> I[上采样层3<br/>320通道]
I --> J[输出层<br/>4×64×64]
C -.-> G
D -.-> H
E -.-> I
注意力机制的核心作用
注意力机制是UNet实现文本条件控制的关键技术,主要包括自注意力(Self-Attention)和交叉注意力(Cross-Attention)两种类型。
空间变换器(Spatial Transformer)
Stable Diffusion使用空间变换器模块来处理注意力计算:
class SpatialTransformer(nn.Module):
def __init__(self, in_channels, n_heads, d_head, depth=1, dropout=0., context_dim=None):
super().__init__()
self.norm = Normalize(in_channels)
self.proj_in = nn.Conv2d(in_channels, inner_dim, 1)
self.transformer_blocks = nn.ModuleList([
BasicTransformerBlock(inner_dim, n_heads, d_head, dropout, context_dim)
for _ in range(depth)
])
self.proj_out = zero_module(nn.Conv2d(inner_dim, in_channels, 1))
基本变换器块
每个变换器块包含自注意力和交叉注意力层:
class BasicTransformerBlock(nn.Module):
def __init__(self, d_model, n_heads, d_head, dropout=0., context_dim=None,
gated_ff=True, checkpoint=True):
super().__init__()
self.attn1 = CrossAttention(d_model, d_model, n_heads, d_head, dropout) # 自注意力
self.attn2 = CrossAttention(d_model, context_dim, n_heads, d_head, dropout) # 交叉注意力
self.ff = FeedForward(d_model, dropout=dropout, glu=gated_ff)
self.norm1 = nn.LayerNorm(d_model)
self.norm2 = nn.LayerNorm(d_model)
self.norm3 = nn.LayerNorm(d_model)
交叉注意力机制详解
交叉注意力是文本条件控制的核心,它建立了图像特征和文本嵌入之间的直接联系。
注意力计算过程
class CrossAttention(nn.Module):
def __init__(self, query_dim, context_dim=None, heads=8, dim_head=64, dropout=0.):
super().__init__()
inner_dim = dim_head * heads
context_dim = default(context_dim, query_dim)
self.scale = dim_head ** -0.5
self.heads = heads
self.to_q = nn.Linear(query_dim, inner_dim, bias=False)
self.to_k = nn.Linear(context_dim, inner_dim, bias=False)
self.to_v = nn.Linear(context_dim, inner_dim, bias=False)
self.to_out = nn.Sequential(
nn.Linear(inner_dim, query_dim),
nn.Dropout(dropout)
)
注意力计算流程
sequenceDiagram
participant Q as 查询(图像特征)
participant K as 键(文本嵌入)
participant V as 值(文本嵌入)
participant A as 注意力权重
participant O as 输出特征
Q->>K: 计算相似度得分
K->>A: Softmax归一化
A->>V: 加权求和
V->>O: 生成条件特征
多分辨率注意力策略
UNet在不同分辨率层次上应用注意力机制,这是通过attention_resolutions参数控制的:
| 分辨率级别 | 特征图大小 | 注意力头数 | 计算复杂度 |
|---|---|---|---|
| 原始分辨率 | 64×64 | 8头 | 高 |
| 1/2分辨率 | 32×32 | 8头 | 中 |
| 1/4分辨率 | 16×16 | 8头 | 低 |
| 1/8分辨率 | 8×8 | 8头 | 很低 |
这种多分辨率策略平衡了计算效率和特征表达能力,确保模型既能捕获细粒度的细节信息,又能维持合理的计算开销。
残差连接与特征融合
UNet通过跳跃连接(Skip Connections)实现编码器和解码器之间的特征融合:
def forward(self, x, timesteps=None, context=None, y=None):
hs = []
# 编码器路径
for module in self.input_blocks:
h = module(h, emb, context)
hs.append(h) # 保存特征用于跳跃连接
h = self.middle_block(h, emb, context)
# 解码器路径
for module in self.output_blocks:
h = th.cat([h, hs.pop()], dim=1) # 特征拼接
h = module(h, emb, context)
时间步嵌入与条件控制
UNet通过时间步嵌入来处理不同的去噪步骤:
def timestep_embedding(timesteps, dim, max_period=10000, repeat_only=False):
half = dim // 2
freqs = torch.exp(
-math.log(max_period) * torch.arange(start=0, end=half, dtype=torch.float32) / half
).to(device=timesteps.device)
args = timesteps[:, None].float() * freqs[None]
embedding = torch.cat([torch.cos(args), torch.sin(args)], dim=-1)
if dim % 2:
embedding = torch.cat([embedding, torch.zeros_like(embedding[:, :1])], dim=-1)
return embedding
性能优化技术
UNet采用了多种性能优化技术:
- 梯度检查点(Gradient Checkpointing):减少内存使用
- 混合精度训练:使用FP16加速计算
- 注意力优化:支持Flash Attention等高效注意力实现
- 模块化设计:便于扩展和定制
# 梯度检查点示例
def checkpoint(func, inputs, params, flag):
if flag:
args = tuple(inputs) + tuple(params)
return CheckpointFunction.apply(func, len(inputs), *args)
else:
return func(*inputs)
UNet网络架构与注意力机制的精心设计使得Stable Diffusion能够高效地处理文本到图像的生成任务,通过多尺度特征处理、精确的条件控制和优化的计算架构,实现了高质量图像生成与合理计算开销的完美平衡。
扩散过程与噪声调度算法
扩散模型的核心思想是通过一个渐进的前向加噪过程将数据分布转化为简单的高斯噪声分布,然后学习一个反向的去噪过程来从噪声中生成数据。在Stable Diffusion中,这一过程在潜在空间中进行,大大提高了计算效率。
前向扩散过程:数据到噪声的转换
前向扩散过程是一个马尔可夫链,通过逐步添加高斯噪声将原始数据转换为纯噪声。这个过程可以用以下数学公式描述:
其中是噪声调度参数,控制每一步添加的噪声量。通过重参数化技巧,我们可以直接从计算任意时间步的:
其中,,。
噪声调度策略
Stable Diffusion支持多种噪声调度策略,每种策略都有不同的序列设计:
线性调度 (Linear Schedule)
def make_beta_schedule(schedule, n_timestep, linear_start=1e-4, linear_end=2e-2):
if schedule == "linear":
betas = torch.linspace(linear_start ** 0.5, linear_end ** 0.5,
n_timestep, dtype=torch.float64) ** 2
线性调度是最简单的策略,从较小的值线性增加到较大的值,确保噪声添加过程平稳。
余弦调度 (Cosine Schedule)
elif schedule == "cosine":
timesteps = (torch.arange(n_timestep + 1, dtype=torch.float64) /
n_timestep + cosine_s)
alphas = timesteps / (1 + cosine_s) * np.pi / 2
alphas = torch.cos(alphas).pow(2)
alphas = alphas / alphas[0]
betas = 1 - alphas[1:] / alphas[:-1]
betas = np.clip(betas, a_min=0, a_max=0.999)
余弦调度基于余弦函数设计,在过程开始和结束时变化较慢,在中间阶段变化较快,这种设计往往能产生更好的生成质量。
平方根调度 (Sqrt Schedule)
elif schedule == "sqrt_linear":
betas = torch.linspace(linear_start, linear_end, n_timestep, dtype=torch.float64)
elif schedule == "sqrt":
betas = torch.linspace(linear_start, linear_end, n_timestep, dtype=torch.float64) ** 0.5
平方根调度提供了另一种噪声添加曲线,在某些场景下可能更适合特定的数据分布。
反向去噪过程:从噪声到数据的生成
反向过程学习如何从噪声逐步去噪生成数据。模型需要预测添加到数据中的噪声或者直接预测去噪后的数据:
class DDPM(pl.LightningModule):
def register_schedule(self, given_betas=None, beta_schedule="linear",
timesteps=1000, linear_start=1e-4, linear_end=2e-2):
# 计算所有必要的中间变量
betas = make_beta_schedule(beta_schedule, timesteps,
linear_start, linear_end)
alphas = 1. - betas
alphas_cumprod = np.cumprod(alphas, axis=0)
# 注册缓冲区用于快速访问
self.register_buffer('betas', to_torch(betas))
self.register_buffer('alphas_cumprod', to_torch(alphas_cumprod))
self.register_buffer('sqrt_alphas_cumprod', to_torch(np.sqrt(alphas_cumprod)))
self.register_buffer('sqrt_one_minus_alphas_cumprod',
to_torch(np.sqrt(1. - alphas_cumprod)))
采样算法比较
Stable Diffusion实现了多种采样算法,每种算法在速度和质量之间有不同的权衡:
| 采样算法 | 采样步数 | 生成质量 | 计算速度 | 主要特点 |
|---|---|---|---|---|
| DDPM | 1000 | 最高 | 最慢 | 原始扩散过程,质量最好 |
| DDIM | 20-50 | 高 | 快 | 确定性采样,可插值 |
| PLMS | 20-50 | 高 | 快 | 伪线性多步采样 |
| DPM Solver | 10-20 | 较高 | 最快 | 基于ODE求解器 |
flowchart TD
A[选择噪声调度策略] --> B{调度类型}
B --> C[线性调度]
B --> D[余弦调度]
B --> E[平方根调度]
C --> F[设置线性beta值]
D --> G[计算余弦alpha值]
E --> H[计算平方根beta值]
F --> I[生成噪声调度参数]
G --> I
H --> I
I --> J[前向扩散过程]
J --> K[训练去噪模型]
K --> L[反向采样生成]
参数化方式的选择
Stable Diffusion支持两种主要的参数化方式:
-
噪声预测 (Epsilon-prediction)
if self.parameterization == "eps": x_recon = self.predict_start_from_noise(x, t=t, noise=model_out) -
数据预测 (X0-prediction)
elif self.parameterization == "x0": x_recon = model_out
噪声预测方式通常更稳定,而数据预测方式在某些情况下可能产生更清晰的结果。
时间步嵌入
为了帮助模型理解当前的时间步,Stable Diffusion使用正弦位置编码:
def timestep_embedding(timesteps, dim, max_period=10000):
half = dim // 2
freqs = torch.exp(-math.log(max_period) *
torch.arange(start=0, end=half, dtype=torch.float32) / half)
args = timesteps[:, None].float() * freqs[None]
embedding = torch.cat([torch.cos(args), torch.sin(args)], dim=-1)
return embedding
这种嵌入方式让模型能够感知扩散过程的不同阶段,从而更好地执行去噪任务。
实际应用中的调度选择
在实际使用中,不同的噪声调度策略会影响生成图像的质量和多样性:
# 示例:使用不同调度策略生成图像
schedules = ["linear", "cosine", "sqrt"]
results = {}
for schedule in schedules:
model.register_schedule(beta_schedule=schedule)
generated_image = model.sample()
results[schedule] = generated_image
通常,余弦调度在大多数情况下能提供最佳的质量-速度平衡,而线性调度则提供了最简单的实现和调试体验。
通过精心设计的噪声调度算法,Stable Diffusion能够在潜在空间中高效地进行扩散过程,既保证了生成质量,又大幅降低了计算需求,这使得在消费级硬件上运行高质量的文本到图像生成成为可能。
Stable Diffusion通过VAE、CLIP、UNet和扩散过程的有机结合,实现了高效高质量的文本到图像生成。VAE解决了计算效率问题,CLIP提供了精确的文本理解能力,UNet实现了复杂的条件控制,噪声调度算法优化了生成过程。这种模块化设计不仅保证了生成质量,还为后续技术演进提供了灵活的框架,是多模态AI生成领域的重要里程碑。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00