ACLatraz 技术文档
1. 安装指南
ACLatraz 可以通过 rubygems 进行简单安装:
sudo gem install aclatraz
2. 项目的使用说明
在开始使用 ACLatraz 之前,需要正确配置权限的数据存储(目前 ACLatraz 仅支持 Redis 数据库作为存储)。Redis 数据存储的配置非常简单:
Aclatraz.init :redis, "redis://localhost:6379/0"
注意,使用 Redis 时,应该指定一个专用于 ACLatraz 的数据库。
3. 项目API使用文档
3.1. Suspects
Suspects 是可以被赋予特定权限的对象。对象必须满足一个条件才能成为 suspect - 它必须有 #id 方法,该方法返回一个唯一的标识符,以便我们能够引用这个对象。要启用 suspect 行为,你需要在指定的类中包含 Aclatraz::Suspect 模块,例如:
class Account < ActiveRecord::Base
include Aclatraz::Suspect
end
现在,你的 suspect 有了一些方法,可以帮助你管理它的权限。
3.1.1. 管理角色
ACLatraz 区分以下三种角色:
- 全局角色(global):通常分配给多个用户的简单角色,可以认为它们是一种群组。全局角色的例子有 guest、admin、customer。
- 类相关角色(class-related):影响特定类管理的角色。例如,可以是 +Pages+ 的 manager、+Products+ 的 admin 等。
- 对象相关角色(object-related):影响特定对象管理的角色。例如,可以是 特定页面的作者、特定产品的所有者 等。
管理角色有两种方式。你可以使用 #roles 或语义上类似于 #is 和 #is_not 的代理。
3.1.1.1. 分配角色
要添加给定角色,可以使用 #roles 代理的 #assign 方法,或者使用语义快捷方式。语义快捷方式必须以 "!" 结尾,并且可以有可选的后缀:_on、_of、_at、_for、_in、_by。以下是一些示例,以便更清楚地了解:
@account.roles.assign(:admin) # 或者 ...
@account.is.admin!
@account.roles.assign(:responsible, Foo) # 或者...
@account.is.responsible_for!(Foo)
@account.roles.assign(:author, Page.find(15)) # 或者...
@account.is.author_of!(Page.find(15))
3.1.1.2. 检查角色
使用 #roles 代理,你可以调用 #has? 方法,例如:
@account.roles.has?(:admin) # => true
@account.roles.has?(:responsible, Foo) # => true
@account.roles.has?(:author, Page.find(15)) # => true
使用语义快捷方式,方法名必须以 "?" 结尾,并且可以包含上面列出的任何后缀,例如:
@account.is.admin? # => true
@account.is.responsible_for?(Foo) # => true
@account.is.author_of?(Page.find(15)) # => true
还有更多使用语义否定的示例:
@account.is_not.admin? # => false
@account.is_not.responsible_for?(Foo) # => false
你也可以使用漂亮的块式语法来检查权限。只有当对象具有给定角色时,才会执行块内的代码。以下是一个快速示例:
@account.is.admin? do
# 只有管理员才能看到这个...
end
3.1.1.3. 删除角色
要从对象中取消分配给定角色,请使用 #roles 的 #delete 方法,例如:
@account.roles.delete(:admin)
@account.roles.delete(:responsible, Foo)
另一种方式是使用语义否定,其中方法名必须以 "!" 结尾,并且可以包含一个允许的后缀,例如:
@account.is_not.admin!
@account.is_not.author_of!(Page.find(15))
4. 项目安装方式
如安装指南所述,可以通过以下命令安装 ACLatraz:
sudo gem install aclatraz
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00