擅长:python、mysql、java
<p>我按照这里的描述进行了微调:<a href="https://github.com/huggingface/transformers/tree/master/examples/seq2seq#translation" rel="nofollow noreferrer">https://github.com/huggingface/transformers/tree/master/examples/seq2seq#translation</a></p>
<p>培训模型(从fr到de)并在最后进行评估:
python示例/seq2seq/run_translation.py do_train True do_eval True model_name_或路径赫尔辛基NLP/opus mt de fr source_lang de target_lang fr source_前缀“将德语翻译成法语:”列车文件../data/translations-train-de-fr1.json验证文件../data/translations-val-de-fr1.json输出目录../tst每个设备的翻译模型列车批次大小=每个设备4个评估批次大小=4覆盖输出目录预测值与生成真实fp16真</p>
<p>经过训练的模型存储在文件夹:tst translation models中</p>
<p>仅使用微调模型进行评估:
文件夹使用“copy_mode.sh”,必须根据语言进行调整):
python示例/seq2seq/run_translation.py do_train False do_eval True model_name_或路径../tst translation models source_lang de target_lang fr source_prefix“将德语翻译为法语:”validation_file../data/translations-val-de-fr1.json per_device_eval_batch_size=4 predict_with_generate True fp16 True</p>
<p>你好,菲利克斯</p>
<p>注:请注意,培训和评估数据必须采用以下格式(每行一项):
{翻译〉:{“DE”:“Freilegung der Leitung(DurCH VN StimalRet)”、“FR”:“Deae管理层”(} Par LE PA)}} /P>