我正在尝试生成一个双元词共现矩阵,表示在语料库中一个词跟在另一个词后面的次数。你知道吗
作为测试,我写了以下内容(我从其他SE问题中收集到):
from sklearn.feature_extraction.text import CountVectorizer
test_sent = ['hello', 'i', 'am', 'hello', 'i', 'dont', 'want', 'to', 'i', 'dont']
bigram_vec = CountVectorizer(ngram_range=(1,2))
X = bigram_vec.fit_transform(test_sent)
Xc = (X.T * X)
print Xc
这应该会给出正确的输出。矩阵Xc
的输出如下:
(0, 0) 1
(1, 1) 2
(2, 2) 2
(3, 3) 1
(4, 4) 1
我不知道怎么解释这个。我试图用Xc.todense()
来帮助我解释,结果是:
[[1 0 0 0 0]
[0 2 0 0 0]
[0 0 2 0 0]
[0 0 0 1 0]
[0 0 0 0 1]]
这两种方法都不能给出正确的单词共现矩阵来显示行跟列的次数。你知道吗
有人能解释一下我如何解释/使用输出吗?为什么会这样?你知道吗
问题补充
下面是另一个可能的输出,使用ngram_range=(2,2)
的不同示例:
from sklearn.feature_extraction.text import CountVectorizer
test_sent = ['hello biggest awesome biggest biggest awesome today lively splendid awesome today']
bigram_vec = CountVectorizer(ngram_range=(2,2))
X = bigram_vec.fit_transform(test_sent)
print bigram_vec.get_feature_names()
Xc = (X.T * X)
print Xc
print ' '
print Xc.todense()
(4, 0) 1
(2, 0) 2
(0, 0) 1
(3, 0) 1
(1, 0) 2
(7, 0) 1
(5, 0) 1
(6, 0) 1
(4, 1) 2
(2, 1) 4
(0, 1) 2
(3, 1) 2
(1, 1) 4
(7, 1) 2
(5, 1) 2
(6, 1) 2
(4, 2) 2
(2, 2) 4
(0, 2) 2
(3, 2) 2
(1, 2) 4
(7, 2) 2
(5, 2) 2
(6, 2) 2
(4, 3) 1
: :
(6, 4) 1
(4, 5) 1
(2, 5) 2
(0, 5) 1
(3, 5) 1
(1, 5) 2
(7, 5) 1
(5, 5) 1
(6, 5) 1
(4, 6) 1
(2, 6) 2
(0, 6) 1
(3, 6) 1
(1, 6) 2
(7, 6) 1
(5, 6) 1
(6, 6) 1
(4, 7) 1
(2, 7) 2
(0, 7) 1
(3, 7) 1
(1, 7) 2
(7, 7) 1
(5, 7) 1
(6, 7) 1
[[1 2 2 1 1 1 1 1]
[2 4 4 2 2 2 2 2]
[2 4 4 2 2 2 2 2]
[1 2 2 1 1 1 1 1]
[1 2 2 1 1 1 1 1]
[1 2 2 1 1 1 1 1]
[1 2 2 1 1 1 1 1]
[1 2 2 1 1 1 1 1]]
这一个似乎用bigrams来标记,因为调用bigram_vec.get_feature_names()
会给出
[u'awesome biggest', u'awesome today', u'biggest awesome', u'biggest biggest', u'hello biggest', u'lively splendid', u'splendid awesome', u'today lively']
有人能帮我解释一下就好了。这是一个对称矩阵,所以我想可能只是出现的次数?你知道吗
首先,您需要检查CountVectorizer正在使用的功能名称。你知道吗
请执行以下操作:
您可以看到
"i"
这个词不存在。这是因为默认标记器使用了一种模式:X的实际输出应解释为:
现在,当您执行
X.T * X
时,这应该解释为:如果你还期待什么,那么你应该在问题中添加细节。你知道吗
相关问题 更多 >
编程相关推荐