import numpy as np
from scipy.spatial.distance import directed_hausdorff
import similaritymeasures
import matplotlib.pyplot as plt
# Generate random experimental data
np.random.seed(121)
x = np.random.random(100)
y = np.random.random(100)
P = np.array([x, y]).T
# Generate an exact copy of P, Q, which we will use to compare
Q = P.copy()
dh, ind1, ind2 = directed_hausdorff(P, Q)
df = similaritymeasures.frechet_dist(P, Q)
dtw, d = similaritymeasures.dtw(P, Q)
pcm = similaritymeasures.pcm(P, Q)
area = similaritymeasures.area_between_two_curves(P, Q)
cl = similaritymeasures.curve_length_measure(P, Q)
# all methods will return 0.0 when P and Q are the same
print(dh, df, dtw, pcm, cl, area)
def point_distance(p1, p2):
# Define distance, if they are the same, then the distance should be 0
def levenshtein_point(l1, l2):
if len(l1) < len(l2):
return levenshtein(l2, l1)
# len(l1) >= len(l2)
if len(l2) == 0:
return len(l1)
previous_row = range(len(l2) + 1)
for i, p1 in enumerate(l1):
current_row = [i + 1]
for j, p2 in enumerate(l2):
print('{},{}'.format(p1, p2))
insertions = previous_row[j + 1] + 1 # j+1 instead of j since previous_row and current_row are one character longer
deletions = current_row[j] + 1 # than l2
substitutions = previous_row[j] + point_distance(p1, p2)
current_row.append(min(insertions, deletions, substitutions))
previous_row = current_row
return previous_row[-1]
#!/usr/bin/python
import numpy as np
from scipy.interpolate import interp1d
import matplotlib.pyplot as plt
import scipy.spatial.distance as ssd
import scipy.stats as ss
x = np.linspace(0, 10, num=11)
x2 = np.linspace(1, 11, num=13)
y = 2*np.cos( x) + 4 + np.random.random(len(x))
y2 = 2* np.cos(x2) + 5 + np.random.random(len(x2))
# Interpolating now, using linear, but you can do better based on your data
f = interp1d(x, y)
f2 = interp1d(x2,y2)
points = 15
xnew = np.linspace ( min(x), max(x), num = points)
xnew2 = np.linspace ( min(x2), max(x2), num = points)
ynew = f(xnew)
ynew2 = f2(xnew2)
plt.plot(x,y, 'r', x2, y2, 'g', xnew, ynew, 'r ', xnew2, ynew2, 'g ')
plt.show()
# Now compute correlations
print ssd.correlation(ynew, ynew2) # Computes a distance measure based on correlation between the two vectors
print np.correlate(ynew, ynew2, mode='valid') # Does a cross-correlation of same sized arrays and gives back correlation
print np.corrcoef(ynew, ynew2) # Gives back the correlation matrix for the two arrays
print ss.spearmanr(ynew, ynew2) # Gives the spearman correlation for the two arrays
我不知道Python中有什么内置函数可以做到这一点。在
我可以给您一个在Python生态系统中可以使用的函数的列表。这绝不是一个完整的函数列表,可能有很多方法我不知道。在
如果数据已排序,但您不知道哪个数据点是第一个,哪个数据点是最后一个:
如果数据是有序的,并且您知道第一点和最后一点是正确的:
*用于各种机器学习任务的一般数学方法
**我用来识别独特材料滞后响应的方法
首先让我们假设我们有两个完全相同的随机X-Y数据。请注意,所有这些方法都将返回零。如果没有,可以从pip安装similaritymeasures。在
打印输出为 0.0,0.0,0.0,0.0,0.0,0.0 这是因为曲线P和Q完全相同!在
现在假设p和Q是不同的。在
^{pr2}$打印输出为 0.107、0.743、37.69、21.5、6.86、11.8 根据每种方法量化P和Q的不同。在
现在有许多方法可以比较这两条曲线。我将从DTW开始,因为这已经在许多时间序列应用程序中使用,这些应用程序看起来像您上传的数据。在
我们可以用下面的代码直观地看到p和Q是什么样子。在
我不知道内置函数,但听起来您可以修改Levenshtein's distance。以下代码取自wikibooks处的代码。在
因为你的数组大小不一样(我假设你用的是相同的实时时间),你需要对它们进行插值,以便在相关的点集上进行比较。 以下代码执行此操作,并计算相关度量值:
输出:
^{pr2}$请记住,这里的相关性是参数型和皮尔逊型的,并且假设计算相关性是单调的。如果不是这样,并且您认为数组只是一起改变符号,那么可以像上一个例子一样使用Spearman的关联。在
相关问题 更多 >
编程相关推荐