问题描述
我在大小为400x156300的数据集上使用oja规则。 它似乎使我的RAM崩溃了。 我不确定是什么原因造成的。 请帮忙。 我有12 GB的RAM。 尝试使用memmap但仍然崩溃!
#convert memmap and reduce precision
[num_sample,num_feat]=train_data.shape
filename = path.join(mkdtemp(), 'train_data.dat')
memmap_train = np.memmap(filename, dtype='float32', mode='w+', shape=(num_sample,num_feat))
memmap_train[:] = train_data[:]
del train_data,test_data
#apply oja's rule
ojanet = algorithms.Oja(minimized_data_size=1250,step=1e-10,verbose=True,show_epoch=1)
ojanet.train(memmap_train, epsilon=1e-3,epochs=10000)
red_train_data = ojanet.predict(memmap_train)
ojanet.plot_errors(logx=False)
pdb.set_trace()
同样,提出了一个问题: : 。 不知道软件包开发是否处于活动状态。
通过破坏RAM,我的意思是RAM%利用率超过100%,并且我的计算机停止响应。
1楼
此问题与Oja算法的内存使用效率低下有关。 它在NeuPy版本0.1.4中已修复。 封闭票可以在这里找到: :