当前位置: 移动技术网 > IT编程>脚本编程>Python > 在Python中处理大型文件的最快方法

在Python中处理大型文件的最快方法

2019年09月12日  | 移动技术网IT编程  | 我要评论

蒲纶,老版画皮 电影,黑道小姐通缉令

我们需要处理的各种目录中有大约500gb的图像。每个图像的大小约为4mb,我们有一个python脚本,一次处理一个图像(它读取元数据并将其存储在数据库中)。每个目录可能需要1-4小时才能处理,具体取决于大小。

我们可以在gnu / linux操作系统上使用2.2ghz四核处理器和16gb ram。当前脚本仅使用一个处理器。利用其他内核和ram来更快地处理图像的最佳方法是什么?启动多个python进程来运行脚本会利用其他内核吗?

另一个选择是使用gearman或beanstalk之类的东西将工作分配给其他机器。我已经看了多处理库但不知道如何利用它。

 

解决方案


启动多个python进程来运行脚本会利用其他内核吗?

是的,如果任务受cpu约束,它将会。这可能是最简单的选择。但是,不要为每个文件或每个目录生成单个进程; 考虑使用像这样的工具,并让它产生每个核心两个进程的东西。

另一个选择是使用gearman或beanstalk之类的东西将工作分配给其他机器。

那可能有用。另外,看看,它使分布式处理变得非常简单。

我已经看了多处理库但不知道如何利用它。

比如定义一个函数,process它读取单个目录中的图像,连接到数据库并存储元数据。让它返回一个表示成功或失败的布尔值。我们directories是目录处理的列表。然后

import multiprocessing
pool = multiprocessing.pool(multiprocessing.cpu_count())
success = all(pool.imap_unordered(process, directories))

将并行处理所有目录。如果需要,您还可以在文件级执行并行操作; 这需要更多的修修补补。

请注意,这将在第一次失败时停止; 使其容错需要更多的工作。


本文首发于,博客园同步更新

如对本文有疑问,请在下面进行留言讨论,广大热心网友会与你互动!! 点击进行留言回复

相关文章:

验证码:
移动技术网