我正在与spacy合作,我想生成法语文本的名词块:
import spacy
nlp = spacy.load('fr_core_news_sm')
text4='''Depuis quelques décennies, afin d'alléger le travail des agents de conduite et de télécommander la fonction de freinage d'immobilisation, on a généralisé l'utilisation des freins à ressort qui ont remplacé les freins à main même dans les applications ferroviaires. Ces freins à ressort paraissent de plus assurer une fonction de sécurité car ils sont généralement desserrés par une pression d'air comprimé qu'il suffit de laisser s'échapper de façon graduée pour déclencher le frein de secours modérable, le frein d'immobilisation étant obtenu par un échappement total de la pression d'air comprimé que l'on est pratiquement sûr d'obtenir. En matière ferroviaire, on a même réalisé des freins de service modérables commandés directement par des ressorts avec échappement de la pression d'air comprimé en fonction de l'effort de freinage souhaité pour le véhicule et de la charge de celui-ci, de manière à obtenir la décélération souhaitée quelle que soit la charge du véhicule, le freinage de parc ou d'immobilisation étant obtenu automatiquement par surcroît en cas d'échappement total de la pression d'air comprimé.'''
doc = nlp(text4)
for chunk in doc.noun_chunks:
print(chunk.text)
结果非常奇怪:
le travail
des agents de conduite et de télécommander la fonction de freinage d'immobilisation
on
l'utilisation des freins à ressort qui ont remplacé les freins à main même dans les applications ferroviaires
Ces freins à ressort
une fonction de sécurité
ils
d'air
il
...etc...
问题是代码/语言的混合
在上面的列表中,一些名词组非常长,实际上应该进一步划分。 为什么不是这样? 使用uuu fr u core u news u sm uuu模型(14MB)作为更大的模型有什么意义吗? 该模型是否影响名词组块分离的质量
名词块依赖于POS标记和依赖项解析,对于较大的模型,尤其是在
sm
和md
之间,它们通常会略有改进。法语的noun_chunks
迭代器也可能需要一些改进相关问题 更多 >
编程相关推荐