首页
/ 【亲测免费】 SikuBERT-for-digital-humanities-and-classical-Chinese-information-processing 使用教程

【亲测免费】 SikuBERT-for-digital-humanities-and-classical-Chinese-information-processing 使用教程

2026-01-15 16:56:45作者:宗隆裙

1. 项目介绍

SikuBERT是一个面向数字人文和古典中文信息处理的预训练语言模型。该项目基于BERT深度语言模型框架,使用校验后的高质量《四库全书》全文语料进行训练,构建了面向古文智能处理任务的SikuBERT和SikuRoBERTa预训练语言模型。这些模型可以应用于古文自动分词、断句标点、词性标注和命名实体识别等任务。

2. 项目快速启动

2.1 环境准备

在开始之前,请确保你已经安装了Python 3.6或更高版本,并且安装了以下依赖库:

pip install transformers
pip install torch

2.2 模型加载

使用Huggingface Transformers库可以直接在线获取SikuBERT和SikuRoBERTa模型。以下是加载模型的代码示例:

from transformers import AutoTokenizer, AutoModel

# 加载SikuBERT模型
tokenizer = AutoTokenizer.from_pretrained("SIKU-BERT/sikubert")
model = AutoModel.from_pretrained("SIKU-BERT/sikubert")

# 加载SikuRoBERTa模型
tokenizer = AutoTokenizer.from_pretrained("SIKU-BERT/sikuroberta")
model = AutoModel.from_pretrained("SIKU-BERT/sikuroberta")

2.3 使用示例

以下是一个简单的使用示例,展示如何使用SikuBERT模型进行文本分词:

text = "古文自动分词是一个重要的任务。"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# 输出结果
print(outputs)

3. 应用案例和最佳实践

3.1 古文自动分词

SikuBERT和SikuRoBERTa在古文自动分词任务上表现优异。以下是一个使用SikuBERT进行古文分词的示例:

from transformers import pipeline

# 使用SikuBERT进行分词
tokenizer = AutoTokenizer.from_pretrained("SIKU-BERT/sikubert")
model = AutoModel.from_pretrained("SIKU-BERT/sikubert")

nlp = pipeline('token-classification', model=model, tokenizer=tokenizer)
result = nlp("古文自动分词是一个重要的任务。")

print(result)

3.2 词性标注

SikuBERT和SikuRoBERTa还可以用于古文的词性标注任务。以下是一个使用SikuRoBERTa进行词性标注的示例:

from transformers import pipeline

# 使用SikuRoBERTa进行词性标注
tokenizer = AutoTokenizer.from_pretrained("SIKU-BERT/sikuroberta")
model = AutoModel.from_pretrained("SIKU-BERT/sikuroberta")

nlp = pipeline('token-classification', model=model, tokenizer=tokenizer)
result = nlp("古文自动分词是一个重要的任务。")

print(result)

4. 典型生态项目

4.1 sikufenci

sikufenci是一个用于繁体古籍自动分词的Python工具包。它基于SikuBERT和SikuRoBERTa模型,提供了高效的分词功能。

4.2 sikuaip

sikuaip是一个单机版开源软件,提供包括分词、断句、实体识别、文本分类等多种古文处理功能。它可以直接下载解压使用,适合需要本地化处理的用户。

4.3 SikuGPT2

SikuGPT2是一个基于《四库全书》和《Chinese-Poetry》的古文、古诗词生成式预训练模型。它可以用于生成古文和古诗词,适合数字人文研究中的文本生成任务。

通过以上模块的介绍和示例代码,你可以快速上手并应用SikuBERT-for-digital-humanities-and-classical-Chinese-information-processing项目。

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
27
13
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
643
4.19 K
Dora-SSRDora-SSR
Dora SSR 是一款跨平台的游戏引擎,提供前沿或是具有探索性的游戏开发功能。它内置了Web IDE,提供了可以轻轻松松通过浏览器访问的快捷游戏开发环境,特别适合于在新兴市场如国产游戏掌机和其它移动电子设备上直接进行游戏开发和编程学习。
C++
57
7
leetcodeleetcode
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.52 K
871
flutter_flutterflutter_flutter
暂无简介
Dart
887
211
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
giteagitea
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
24
0
pytorchpytorch
Ascend Extension for PyTorch
Python
480
580
cherry-studiocherry-studio
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.28 K
105