我使用Python和索引文件(搜索引擎)时,它需要大量的内存,当我停止索引过程记忆依然充满(如8GB的内存)。 这是不好的,因为我需要我的搜索引擎工作的所有时间,而不是当我完成索引复位OS。 有没有什么有效的方法如何与巨大的数组,字典和列表,以及如何释放他们管理。 有任何想法吗?
我也看到了关于它的计算器一些问题,但他们都老了:
Python的内存占用与堆大小
在Python资料内存分配(与numpy的阵列的支持)
信息:
free -t
total used free shared buffers cached
Mem: 5839 5724 114 0 15 1011
-/+ buffers/cache: 4698 1141
Swap: 1021 186 835
Total: 6861 5910 950
top | grep python
3164 root 20 0 68748 31m 1404 R 17 0.5 53:43.89 python
6716 baddc0re 20 0 84788 30m 1692 S 0 0.5 0:06.81 python
ps aux | grep python
root 3164 57.1 0.4 64876 29824 pts/0 R+ May27 54:23 python SE_doc_parse.py
baddc0re 6693 0.0 0.2 53240 16224 pts/1 S+ 00:46 0:00 python index.py
uptime
01:02:40 up 1:43, 3 users, load average: 1.22, 1.46, 1.39
sysctl vm.min_free_kbytes
vm.min_free_kbytes = 67584
真正的问题是,当我启动脚本中的索引速度很快,但是当用量增加是越来越慢。
Document wikidoc_18784 added on 2012-05-28 01:03:46 "fast"
wikidoc_18784
-----------------------------------
Document wikidoc_21934 added on 2012-05-28 01:04:00 "slower"
wikidoc_21934
-----------------------------------
Document wikidoc_22903 added on 2012-05-28 01:04:01 "slower"
wikidoc_22903
-----------------------------------
Document wikidoc_20274 added on 2012-05-28 01:04:10 "slower"
wikidoc_20274
-----------------------------------
Document wikidoc_23013 added on 2012-05-28 01:04:53 "even more slower"
wikidoc_23013
该文件的大小是文本最大的一两页。 10页的索引大约需要2-3秒。
TNX大家的帮助:)