Skip to content

raynardj/yuan

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

15 Commits
 
 
 
 
 
 
 
 

Repository files navigation

渊 - AI+文言文一站式附庸风雅, 欢迎贡献新的思路 笔记 模型 数据

一个文言诗词的NLP项目们。🌼

搜索

博古搜今

  • 用现代文语句模糊搜索文言文语句,可以去🤗 模型主页下载模型

您是不是经常遇到这样的问题:

  • 我不记得是谁, 哪个朝代,我只记得大概这么一个事儿,我就能模糊找到原文
  • 我不记得原文, 但是我只记得原文想表达的现代汉语意思, 希望能找出来引用一下。
  • 我在写文章, 有个观点, 我想碰运气看看古人有没有提过同样类似的说法。
  • 我只是想更有效率地阅读古文

推荐的使用通道如下,当然, cosine距离搜索相关的框架和引擎很多, 大家自己看着适用的选

装包

pip install -Uqq unpackai
pip install -Uqq SentenceTransformer

搜索语句的函数

from unpackai.interp import CosineSearch
from sentence_transformers import SentenceTransformer
import pandas as pd
import numpy as np

TAG = "raynardj/xlsearch-cross-lang-search-zh-vs-classicical-cn"
encoder = SentenceTransformer(TAG)

# all_lines is a list of all your sentences
# all_lines 是一个你所有句子的列表, 可以是一本书, 按照句子分割, 也可以是很多很多书
all_lines = ["句子1","句子2",...]
vec = encoder.encode(all_lines, batch_size=32, show_progress_bar=True)

# consine距离搜索器
cosine = CosineSearch(vec)

def search(text):
    enc = encoder.encode(text) # encode the search key
    order = cosine(enc) # distance array
    sentence_df = pd.DataFrame({"sentence":np.array(all_lines)[order[:5]]})
    return sentence_df

将史记打成句子以后, 搜索效果是这样的:

>>> search("他是一个很慷慨的人")
sentence
0	季布者,楚人也。为气任侠,有名於楚。
1	董仲舒为人廉直。
2	大将军为人仁善退让,以和柔自媚於上,然天下未有称也。
3	勃为人木彊敦厚,高帝以为可属大事。
4	石奢者,楚昭王相也。坚直廉正,无所阿避。
>>> search("进入军营,必须缓缓牵着马骑")
sentence
0	壁门士吏谓从属车骑曰:将军约,军中不得驱驰。
1	起之为将,与士卒最下者同衣食。卧不设席,行不骑乘,亲裹赢粮,与士卒分劳苦。
2	既出,沛公留车骑,独骑一马,与樊哙等四人步从,从间道山下归走霸上军,而使张良谢项羽。
3	顷之,上行出中渭桥,有一人从穚下走出,乘舆马惊。
4	元狩四年春,上令大将军青、骠骑将军去病将各五万骑,步兵转者踵军数十万,而敢力战深入之士皆属骠骑。

翻译

现代文到文言文翻译器

在python中推荐使用以下的代码进行inference:

from transformers import (
  EncoderDecoderModel,
  AutoTokenizer
)
PRETRAINED = "raynardj/wenyanwen-chinese-translate-to-ancient"
tokenizer = AutoTokenizer.from_pretrained(PRETRAINED)
model = EncoderDecoderModel.from_pretrained(PRETRAINED)

def inference(text):
    tk_kwargs = dict(
      truncation=True,
      max_length=128,
      padding="max_length",
      return_tensors='pt')
   
    inputs = tokenizer([text,],**tk_kwargs)
    with torch.no_grad():
        return tokenizer.batch_decode(
            model.generate(
            inputs.input_ids,
            attention_mask=inputs.attention_mask,
            num_beams=3,
            max_length=128,
            bos_token_id=101,
            eos_token_id=tokenizer.sep_token_id,
            pad_token_id=tokenizer.pad_token_id,
        ), skip_special_tokens=True)

目前版本的案例

目前版本, 按照上述通道的翻译案例:

>>> inference('你连一百块都不肯给我')
['不 肯 与 我 百 钱 。']
>>> inference("他不能做长远的谋划")
['不 能 为 远 谋 。']
>>> inference("我们要干一番大事业")
['吾 属 当 举 大 事 。']
>>> inference("这感觉,已经不对,我努力,在挽回")
['此 之 谓 也 , 已 不 可 矣 , 我 勉 之 , 以 回 之 。']
>>> inference("轻轻地我走了, 正如我轻轻地来, 我挥一挥衣袖,不带走一片云彩")
['轻 我 行 , 如 我 轻 来 , 挥 袂 不 携 一 片 云 。']

其中可改进处颇多:

  • 目前,模型最长语句是128,可以通过修改tokenizer的max_length参数来调整。也就是会忽略一些现代文的语句。
  • 可以通过去除pad token 的标签设置为-100,这样就不需要传eos token id了。
  • 目前使用现代文预训练的bert-base-chinese作为encoder, 现代文预训练的 gpt2作为decoder。我们完全可以使用文言文+诗词预训练的gpt2作为decoder, 提升效果几乎是肯定的。
  • 算力有限,许多调参细节,基本都没有试过。

文言文到现代文翻译器

输入文言文, 可以是断句 或者 未断句的文言文, 模型会预测现代文的表述。

推荐的inference 通道

注意

  • 你必须将generate函数的eos_token_id设置为102就可以翻译出完整的语句, 不然翻译完了会有残留的语句(因为做熵的时候用pad标签=-100导致)。 目前huggingface 页面上compute按钮会有这个问题, 推荐使用以下代码来得到翻译结果
  • 请设置generate的参数num_beams>=3, 以达到较好的翻译效果
  • 请设置generate的参数max_length256, 不然结果会吃掉句子
from transformers import (
  EncoderDecoderModel,
  AutoTokenizer
)
PRETRAINED = "raynardj/wenyanwen-ancient-translate-to-modern"
tokenizer = AutoTokenizer.from_pretrained(PRETRAINED)
model = EncoderDecoderModel.from_pretrained(PRETRAINED)
def inference(text):
    tk_kwargs = dict(
      truncation=True,
      max_length=128,
      padding="max_length",
      return_tensors='pt')
   
    inputs = tokenizer([text,],**tk_kwargs)
    with torch.no_grad():
        return tokenizer.batch_decode(
            model.generate(
            inputs.input_ids,
            attention_mask=inputs.attention_mask,
            num_beams=3,
            max_length=256,
            bos_token_id=101,
            eos_token_id=tokenizer.sep_token_id,
            pad_token_id=tokenizer.pad_token_id,
        ), skip_special_tokens=True)

目前版本的案例

当然, 拿比较熟知的语句过来, 通常会有些贻笑大方的失误, 大家如果有好玩的调戏案例, 也欢迎反馈

>>> inference('非我族类其心必异')
['不 是 我 们 的 族 类 , 他 们 的 心 思 必 然 不 同 。']
>>> inference('肉食者鄙未能远谋')
['吃 肉 的 人 鄙 陋 , 不 能 长 远 谋 划 。']
# 这里我好几批模型都翻不出这个**输**字(甚至有一个版本翻成了秦始皇和汉武帝), 可能并不是很古朴的用法, 
>>> inference('江山如此多娇引无数英雄竞折腰惜秦皇汉武略输文采唐宗宋祖稍逊风骚')
['江 山 如 此 多 , 招 引 无 数 的 英 雄 , 竞 相 折 腰 , 可 惜 秦 皇 、 汉 武 , 略 微 有 文 采 , 唐 宗 、 宋 祖 稍 稍 逊 出 风 雅 。']
>>> inference("清风徐来水波不兴")
['清 风 慢 慢 吹 来 , 水 波 不 兴 。']
>>> inference("无他唯手熟尔")
['没 有 别 的 事 , 只 是 手 熟 罢 了 。']
>>> inference("此诚危急存亡之秋也")
['这 实 在 是 危 急 存 亡 的 时 候 。']

断句

输入一串未断句文言文, 可以断句, 目前支持二十多种标点符号

这里推荐的Inference函数如下

from transformers import AutoTokenizer, BertForTokenClassification
from transformers import pipeline

TAG = "raynardj/classical-chinese-punctuation-guwen-biaodian"
ner = pipeline("ner",module.model,tokenizer=tokenizer)

model = BertForTokenClassification.from_pretrained(TAG)
tokenizer = AutoTokenizer.from_pretrained(TAG)

def mark_sentence(x: str):
    outputs = ner(x)
    x_list = list(x)
    for i, output in enumerate(outputs):
        x_list.insert(output['end']+i, output['entity'])
    return "".join(x_list)

案例

>>> mark_sentence("""郡邑置夫子庙于学以嵗时释奠盖自唐贞观以来未之或改我宋有天下因其制而损益之姑苏当浙右要区规模尤大更建炎戎马荡然无遗虽修学宫于荆榛瓦砾之余独殿宇未遑议也每春秋展礼于斋庐已则置不问殆为阙典今寳文阁直学士括苍梁公来牧之明年实绍兴十有一禩也二月上丁修祀既毕乃愓然自咎揖诸生而告之曰天子不以汝嘉为不肖俾再守兹土顾治民事神皆守之职惟是夫子之祀教化所基尤宜严且谨而拜跪荐祭之地卑陋乃尔其何以掲防妥灵汝嘉不敢避其责曩常去此弥年若有所负尚安得以罢輭自恕复累后人乎他日或克就绪愿与诸君落之于是谋之僚吏搜故府得遗材千枚取赢资以给其费鸠工庀役各举其任嵗月讫工民不与知像设礼器百用具修至于堂室廊序门牖垣墙皆一新之""")

'郡邑,置夫子庙于学,以嵗时释奠。盖自唐贞观以来,未之或改。我宋有天下因其制而损益之。姑苏当浙右要区,规模尤大,更建炎戎马,荡然无遗。虽修学宫于荆榛瓦砾之余,独殿宇未遑议也。每春秋展礼于斋庐,已则置不问,殆为阙典。今寳文阁直学士括苍梁公来牧之。明年,实绍兴十有一禩也。二月,上丁修祀既毕,乃愓然自咎,揖诸生而告之曰"天子不以汝嘉为不肖,俾再守兹土,顾治民事,神皆守之职。惟是夫子之祀,教化所基,尤宜严且谨。而拜跪荐祭之地,卑陋乃尔。其何以掲防妥灵?汝嘉不敢避其责。曩常去此弥年,若有所负,尚安得以罢輭自恕,复累后人乎!他日或克就绪,愿与诸君落之。于是谋之,僚吏搜故府,得遗材千枚,取赢资以给其费。鸠工庀役,各举其任。嵗月讫,工民不与知像,设礼器,百用具修。至于堂室。廊序。门牖。垣墙,皆一新之。'

可能会有的瑕疵

  • 有时候两个标点符号连在一起, 会被吃掉一个, 比如:【会只有
  • 有时候标记的字太强了, 很难学会例外, 比如也字就很霸道, "吾生也有涯,而知也无涯。以有涯随无涯,殆已" 怎么都断不正确

资源清单

欢迎联系我github的邮箱讨论,或者提交issue,我会尽力帮助你。

About

渊 - A project for Classical Chinese

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published