Websauna项目教程:创建你的第一个数据模型
前言
在Websauna框架中,数据模型是构建Web应用的核心部分。本教程将指导你如何在Websauna项目中创建第一个数据模型,特别是一个投票系统的数据模型。通过这个实例,你将学习到Websauna中模型定义、数据库迁移等关键概念。
模型基础
在Websauna中,模型使用SQLAlchemy进行定义。SQLAlchemy是一个强大的Python ORM(对象关系映射)工具,它允许你使用Python类来表示数据库表。
创建投票模型
我们将创建一个简单的投票系统,包含两个主要模型:
- Question(问题):表示投票的问题
- Choice(选项):表示每个问题的可选答案
在你的models.py文件中添加以下代码:
from uuid import uuid4
from sqlalchemy import Column, String, Integer, ForeignKey
from websauna.system.model.columns import UUID
from sqlalchemy.orm import relationship
from websauna.system.model.meta import Base
from websauna.system.model.columns import UTCDateTime
class Question(Base):
"""表示投票问题的模型"""
__tablename__ = "question" # 数据库表名
# 主键字段
id = Column(Integer, autoincrement=True, primary_key=True)
# 公开使用的UUID,比自增ID更安全
uuid = Column(UUID(as_uuid=True), default=uuid4)
# 问题文本
question_text = Column(String(256), default=None)
# 发布时间(UTC时间)
published_at = Column(UTCDateTime, default=None)
# 与Choice模型的一对多关系
choices = relationship("Choice",
back_populates="question",
lazy="dynamic",
cascade="all, delete-orphan",
single_parent=True)
class Choice(Base):
"""表示投票选项的模型"""
__tablename__ = "choice" # 数据库表名
# 主键字段
id = Column(Integer, autoincrement=True, primary_key=True)
# 公开使用的UUID
uuid = Column(UUID(as_uuid=True), default=uuid4)
# 选项文本
choice_text = Column(String(256), default=None)
# 投票计数
votes = Column(Integer, default=0)
# 外键关联到Question
question_id = Column(Integer, ForeignKey('question.id'))
question = relationship("Question", back_populates="choices")
关键点解析
-
Base类:所有模型都继承自
websauna.system.model.meta.Base,这是Websauna提供的默认模型基类。 -
UUID字段:我们使用UUID而不是自增ID作为公开标识符,这提高了安全性,防止恶意用户猜测ID。
-
时间处理:
UTCDateTime确保所有时间都以UTC格式存储,避免了时区相关的问题。 -
关系定义:我们定义了Question和Choice之间的一对多关系,并配置了级联删除等行为。
数据库迁移
仅仅定义Python模型是不够的,我们还需要将这些变更应用到数据库中。这个过程称为数据库迁移。
为什么需要迁移
当你尝试启动开发服务器时,Websauna的完整性检查会发现数据库结构与模型定义不匹配,导致启动失败。这是Websauna的安全机制,防止你使用不一致的数据库结构。
创建迁移脚本
执行以下命令创建迁移脚本:
ws-alembic -c company/application/conf/development.ini revision --auto -m "Added choices and questions"
这个命令会分析模型与数据库的差异,并生成一个迁移脚本。Websauna使用Alembic来管理数据库迁移。
应用迁移
创建迁移脚本后,执行以下命令将变更应用到数据库:
ws-alembic -c company/application/conf/development.ini upgrade head
注意:PostgreSQL的迁移是事务性的,这意味着整个迁移要么完全成功,要么完全失败。这为迁移过程提供了额外的安全保障。
验证结果
迁移完成后,你可以使用数据库命令行工具检查新创建的表:
ws-db-shell
在数据库shell中,你可以看到新创建的question和choice表。
最佳实践
-
小步迁移:每次只做少量模型变更,然后生成并测试迁移脚本。
-
描述性消息:为每个迁移提供清晰的描述信息,方便日后维护。
-
测试环境验证:在应用到生产环境前,先在测试环境中验证迁移。
-
备份:执行重要迁移前,确保有数据库备份。
总结
通过本教程,你学会了:
- 如何在Websauna中定义数据模型
- 模型间关系的配置方法
- 数据库迁移的基本流程
- 模型设计中的安全考虑(如使用UUID)
这些知识为你构建更复杂的Websauna应用打下了坚实基础。在后续教程中,我们将学习如何为这些模型创建视图和表单,实现完整的投票功能。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
unified-cache-managementUnified Cache Manager(推理记忆数据管理器),是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理并持久化推理过程中产生的KV Cache记忆数据,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。Python03
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
Spark-Prover-X1-7BSpark-Prover-X1-7B is a 7B-parameter large language model developed by iFLYTEK for automated theorem proving in Lean4. It generates complete formal proofs for mathematical theorems using a three-stage training framework combining pre-training, supervised fine-tuning, and reinforcement learning. The model achieves strong formal reasoning performance and state-of-the-art results across multiple theorem-proving benchmarksPython00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer-X1-7B is a 7B-parameter large language model by iFLYTEK for mathematical auto-formalization. It translates natural-language math problems into precise Lean4 formal statements, achieving high accuracy and logical consistency. The model is trained with a two-stage strategy combining large-scale pre-training and supervised fine-tuning for robust formal reasoning.Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00- HHowToCook程序员在家做饭方法指南。Programmer's guide about how to cook at home (Chinese only).Dockerfile015
Spark-Scilit-X1-13B科大讯飞Spark Scilit-X1-13B基于最新一代科大讯飞基础模型,并针对源自科学文献的多项核心任务进行了训练。作为一款专为学术研究场景打造的大型语言模型,它在论文辅助阅读、学术翻译、英语润色和评论生成等方面均表现出色,旨在为研究人员、教师和学生提供高效、精准的智能辅助。Python00- PpathwayPathway is an open framework for high-throughput and low-latency real-time data processing.Python00