只需两行代码就可以生成GPT2文本!
chattingtransformer的Python项目详细描述
聊天变压器
使用最先进的NLP模型轻松生成文本。
聊天变压器是一个Python库,用于使用GPT2生成文本。GPT-2是OpenAI开发的一种语言模型,专门用于生成文本。通过使用聊天变压器,您只需两行代码就可以实现和使用此模型。在
安装
pip install chattingtransformer
基本用法
^{pr2}$可用型号
Model | Parameters | Size |
---|---|---|
gpt2 | 134 M | 548 MB |
gpt2-medium | 335 M | 1.52 GB |
gpt2-large | 774 M | 3.25 GB |
gpt2-xl | 1.5 B | 6.43 GB |
fromchattingtransformerimportChattingGPT2gpt2=ChattingGPT2("gpt2")gpt2_medium=ChattingGPT2("gpt2-medium")gpt2_large=ChattingGPT2("gpt2-large")gpt2_xl=ChattingGPT2("gpt2-xl")
预定义方法
以下是可用于确定输出的预定义方法。 要了解有关这些方法的更多信息,请访问此webpage。在
- “贪婪”
- “波束搜索”
- “一般抽样”
- “top-k-抽样”
- “顶部p核取样”
fromchattingtransformerimportChattingGPT2gpt2=ChattingGPT2("gpt2")text="I think therefore I "greedy_output=gpt2.generate_text(text,method="greedy")beam_search_output=gpt2.generate_text(text,method="beam-search")generic_sampling_output=gpt2.generate_text(text,method="generic-sampling")top_k_sampling_output=gpt2.generate_text(text,method="top-k-sampling")top_p_nucleus_sampling_output=gpt2.generate_text(text,method="top-p-nucleus-sampling")
自定义方法
以下是参数的默认值,您可以调整这些参数以修改模型生成文本的方式。有关每个参数用途的详细信息,请访问Hugging Face在此webpage上的Transformer文档。在
最大长度:
最小长度:
do\u样品:
提前停车:
梁数:
温度:
顶部k:
顶部:
重复处罚:
长度惩罚:
无重复图片大小:
坏单词:
修改所有设置
您可以一次修改所有默认文本生成参数,如下所示。在
fromchattingtransformerimportChattingGPT2settings={"max_length":100,"min_length":10,"do_sample":False,"early_stopping":False,"num_beams":1,"temperature":1,"top_k":50,"top_p":1.0,"repetition_penalty":1,"length_penalty":1,"no_repeat_ngram_size":2,'bad_words_ids':None,}gpt2=ChattingGPT2("gpt2")text="I think therefore I "result=gpt2.generate_text(text,method="custom",custom_settings=settings)
修改选择设置
您只能修改设置的一个子集。其余参数将使用其默认设置。在
fromchattingtransformerimportChattingGPT2settings={"max_length":200,"min_length":100,}gpt2=ChattingGPT2("gpt2")text="I think therefore I "result=gpt2.generate_text(text,method="custom",custom_settings=settings)```
- 项目
标签: