我对Python非常陌生,需要从头创建一个语料库。我对.DS\u存储文件有问题。我试着手动擦除它,用Terminal或Python擦除它,但没有任何效果。当.DS\u存储存在时,我无法进行NLP计算。这是我的代码:
import nltk
import random
nltk.download('cmudict')
nltk.download('wordnet')
nltk.download('stopwords')
nltk.download('averaged_perceptron_tagger')
nltk.download('punkt')
from nltk.corpus import cmudict
from nltk.stem.wordnet import WordNetLemmatizer
from nltk.corpus import stopwords
import string
from nltk import word_tokenize
import os
from nltk.corpus.reader.plaintext import PlaintextCorpusReader
corpusdir = '/Users/username/nltk_data/corpusfilename'
corp = PlaintextCorpusReader(corpusdir, '.*')
corp.fileids() # gives me 6 fileids, 5 existing and one .DS_Store
corp.sents() # error: 'utf-8' codec can't decode byte 0xd5 in position 161: invalid
continuation byte
我使用的是Mac,建议使用if语句,这样语料库只能读取.txt而不能读取.DS_存储。我不知道怎么做
上面的脚本将完成从目录中删除文件的操作
从Wikipedia:
所以在任何地方都可能有一个
.DS_Store
在这一行:
corp = PlaintextCorpusReader(corpusdir, '.*')
您可以选择哪些文件将在语料库中第二个参数
'.*'
是一个正则表达式,用于选择要使用的文件。根据the doc,此参数可以是“指定此语料库中文件ID的列表或regexp”因此,在您的例子中,您可以将匹配所有内容的
'.*'
更改为'.*\.txt'
,以匹配任何字符以及“.”和“txt”。或者,如果您知道需要的每个文件的名称,您可以使用文件名列表['file1.txt', 'file2.txt']