用pylearn2创建单层神经网络

2024-05-19 09:33:01 发布

您现在位置:Python中文网/ 问答频道 /正文

Pylearn2通常被建议作为神经网络的python资源。在

我想创建一个单一的隐藏层神经网络和训练它与反向传播算法。在

这应该是一些基本的东西,但我不明白如何用pylearn2。我找到了这篇关于多层感知器的教程,尽管如此,我还是迷路了。(http://nbviewer.ipython.org/github/lisa-lab/pylearn2/blob/master/pylearn2/scripts/tutorials/multilayer_perceptron/multilayer_perceptron.ipynb

n = 200
p = 20
X = np.random.normal(0, 1, (n, p))
y = X[:,0]* X[:, 1] + np.random.normal(0, .1, n)

我想创建一个具有40个隐藏节点和一个sigmoid激活函数的单层神经网络。在

有人能帮我吗?在

编辑:

我已经能够写这个代码,但它仍然不起作用

^{pr2}$

Tags: 算法httpnp教程神经网络random资源建议
2条回答

这是我目前的解决方案:

n = 200
p = 2
X = np.random.normal(0, 1, (n, p))
y = X[:,0]* X[:, 1] + np.random.normal(0, .1, n)
y.shape = (n, 1)

ds = DenseDesignMatrix(X=X, y=y)


hidden_layer = mlp.Sigmoid(layer_name='hidden', dim=10, irange=.1, init_bias=1.)
output_layer = mlp.Linear(dim=1, layer_name='y', irange=.1)
trainer = sgd.SGD(learning_rate=.05, batch_size=10, 
                  termination_criterion=EpochCounter(200))
layers = [hidden_layer, output_layer]
ann = mlp.MLP(layers, nvis=2)
trainer.setup(ann, ds)

while True:
    trainer.train(dataset=ds)
    ann.monitor.report_epoch()
    ann.monitor()
    if not trainer.continue_learning(ann):
        break

inputs = X 
y_est = ann.fprop(theano.shared(inputs, name='inputs')).eval()

pylearn2可以通过实例化对象并像通常那样使用它们来使用,或者通过配置Yaml文件定义网络拓扑和参数,并让pylearn2负责其余的工作。了解事物如何工作的一个好方法是查看pylearn2/scripts/train.py以查看执行的操作。另外,在pylearn2/train.py(我想是不幸的名字选择)中,您会发现“train object”包含了关于培训的所有信息。基本上,当您使用配置文件时,yaml解析器将使用配置文件中的信息构建一个train对象,然后开始培训。在pylearn2/scripts/papers中有很多例子,如果你愿意的话,你可以看看。在

我还建议您阅读本文,以便更好地理解pylearn2是如何工作的:Your models in Pylearn2

最后,您可能还想看看Blocks,这是一个神经网络的新框架,它是由与pylearn2相同的实验室开发的。它正处于非常活跃的开发阶段,并且比pylearn2有更少的特性,但您可能会更喜欢它,尤其是当您了解一些Theano的时候。在

相关问题 更多 >

    热门问题