
要解析子进程的stdout,如果直到现在使用check_output,这似乎不起作用,因为进程仍在运行并且不会产生确定的输出.
>>> from subprocess import check_output>>> out = check_output(["tail","-f","/tmp/file"]) #(waiting for tail to finish)
应该可以为子进程使用线程,以便可以处理多个子进程的输出(例如tail -f / tmp / file1,tail -f / tmp / file2).
如何启动子进程,定期检查和处理其标准输出并最终以多线程友好的方式停止子进程? python脚本在linux系统上运行.
目标不是连续读取文件,tail命令是一个示例,因为它的行为与使用的实际命令完全相同.
编辑:我没想到这个,文件不存在. check_output现在只是等待进程完成.
edit2:另一种方法,使用Popen和PIPE似乎会导致同样的问题.它等待尾巴完成.
>>> from subprocess import Popen,PIPE,STDOUT>>> cmd = 'tail -f /tmp/file'>>> p = Popen(cmd,shell=True,stdin=PIPE,stdout=PIPE,stderr=STDOUT,close_fds=True)>>> output = p.stdout.read() #(waiting for tail to finish)解决方法 你的第二次尝试是正确的90%.唯一的问题是你试图在它完成后同时读取所有尾部的标准输出.但是,tail应该在后台运行(无限期?),所以你真的想逐行读取stdout:
from subprocess import Popen,STDOUTp = Popen(["tail","/tmp/file"],stderr=STDOUT)for line in p.stdout: print(line)
我删除了shell = True和close_fds = True参数.第一个是不必要的,有潜在危险,而第二个是默认值.
请记住,文件对象可以在Python中通过它们的行进行迭代. for循环将一直运行,直到尾部死亡,但它将处理每条线,而不是读取,这将阻塞直到尾部死亡.
如果我在/ tmp / file中创建一个空文件,启动该程序并开始使用另一个shell将行回显到文件中,程序将回显这些行.您可能应该用更有用的东西替换print.
以下是我在启动上述代码后输入的命令示例:
命令行
$echo a > /tmp/file$echo b > /tmp/file$echo c >> /tmp/file
程序输出(来自不同shell中的Python)
b'a\n'b'tail: /tmp/file: file truncated\n'b'b\n'b'c\n'
如果您希望主程序在响应tail的输出时响应,请在单独的线程中启动循环.您应该将此线程设置为守护程序,以便即使尾部未完成也不会阻止程序退出.您可以让线程打开子流程,也可以将标准输出传递给它.我更喜欢后一种方法,因为它可以让你在主线程中有更多的控制权:
def deal_with_stdout(): for line in p.stdout: print(line)from subprocess import Popen,STDOUTfrom threading import Threadp = Popen(["tail",stderr=STDOUT)t = Thread(target=deal_with_stdout,daemon=True)t.start()t.join()
这里的代码几乎相同,添加了一个新线程.我在最后添加了一个join(),所以程序作为一个例子表现得很好(join在返回之前等待线程死掉).您可能希望用通常运行的任何处理代码替换它.
如果您的线程足够复杂,您可能还希望从Thread继承并覆盖run方法而不是传入一个简单的目标.
总结以上是内存溢出为你收集整理的检查python中正在运行的子进程的stdout全部内容,希望文章能够帮你解决检查python中正在运行的子进程的stdout所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)