Неблокирующее чтение в подпроцессе.КАНАЛ в python

StackOverflow https://stackoverflow.com/questions/375427

Вопрос

Я использую модуль подпроцесса чтобы запустить подпроцесс и подключиться к его выходному потоку (stdout).Я хочу иметь возможность выполнять неблокирующие чтения в его стандартном выводе.Есть ли способ сделать .readline неблокирующим или проверить, есть ли данные в потоке, прежде чем я вызову .readline?Я бы хотел, чтобы это было переносимым или, по крайней мере, работало под Windows и Linux.

вот как я делаю это на данный момент (это блокирует .readline если данные недоступны):

p = subprocess.Popen('myprogram.exe', stdout = subprocess.PIPE)
output_str = p.stdout.readline()
Это было полезно?

Решение

fcntl, select, asyncproc в данном случае это не поможет.

Надежный способ прочитать поток без блокировки независимо от операционной системы - это использовать Queue.get_nowait():

import sys
from subprocess import PIPE, Popen
from threading  import Thread

try:
    from queue import Queue, Empty
except ImportError:
    from Queue import Queue, Empty  # python 2.x

ON_POSIX = 'posix' in sys.builtin_module_names

def enqueue_output(out, queue):
    for line in iter(out.readline, b''):
        queue.put(line)
    out.close()

p = Popen(['myprogram.exe'], stdout=PIPE, bufsize=1, close_fds=ON_POSIX)
q = Queue()
t = Thread(target=enqueue_output, args=(p.stdout, q))
t.daemon = True # thread dies with the program
t.start()

# ... do other things here

# read line without blocking
try:  line = q.get_nowait() # or q.get(timeout=.1)
except Empty:
    print('no output yet')
else: # got line
    # ... do something with line

Другие советы

У меня часто возникала подобная проблема;Программы на Python, которые я часто пишу, должны иметь возможность выполнять некоторые основные функциональные возможности, одновременно принимая пользовательский ввод из командной строки (stdin).Простое помещение функциональности обработки пользовательского ввода в другой поток не решает проблему, потому что readline() блокирует и не имеет таймаута.Если основная функциональность завершена и больше нет необходимости ждать дальнейшего пользовательского ввода, я обычно хочу, чтобы моя программа завершилась, но это невозможно, потому что readline() все еще блокируется в другом потоке, ожидающем строки.Решение, которое я нашел для этой проблемы, состоит в том, чтобы сделать stdin неблокирующим файлом с помощью модуля fcntl:

import fcntl
import os
import sys

# make stdin a non-blocking file
fd = sys.stdin.fileno()
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)

# user input handling thread
while mainThreadIsRunning:
      try: input = sys.stdin.readline()
      except: continue
      handleInput(input)

На мой взгляд, это немного чище, чем использовать модули select или signal для решения этой проблемы, но опять же, это работает только в UNIX...

Python 3.4 вводит новые предварительный API для асинхронного ввода-вывода -- asyncio модуль.

Этот подход аналогичен twisted-основанный на ответе @Bryan Ward -- определите протокол, и его методы будут вызываться, как только данные будут готовы:

#!/usr/bin/env python3
import asyncio
import os

class SubprocessProtocol(asyncio.SubprocessProtocol):
    def pipe_data_received(self, fd, data):
        if fd == 1: # got stdout data (bytes)
            print(data)

    def connection_lost(self, exc):
        loop.stop() # end loop.run_forever()

if os.name == 'nt':
    loop = asyncio.ProactorEventLoop() # for subprocess' pipes on Windows
    asyncio.set_event_loop(loop)
else:
    loop = asyncio.get_event_loop()
try:
    loop.run_until_complete(loop.subprocess_exec(SubprocessProtocol, 
        "myprogram.exe", "arg1", "arg2"))
    loop.run_forever()
finally:
    loop.close()

Видишь "Подпроцесс" в документах.

Есть высокоуровневый интерфейс asyncio.create_subprocess_exec() это возвращает Process Объекты это позволяет читать строку асинхронно, используя StreamReader.readline() сопрограммаasync/await Синтаксис Python 3.5+):

#!/usr/bin/env python3.5
import asyncio
import locale
import sys
from asyncio.subprocess import PIPE
from contextlib import closing

async def readline_and_kill(*args):
    # start child process
    process = await asyncio.create_subprocess_exec(*args, stdout=PIPE)

    # read line (sequence of bytes ending with b'\n') asynchronously
    async for line in process.stdout:
        print("got line:", line.decode(locale.getpreferredencoding(False)))
        break
    process.kill()
    return await process.wait() # wait for the child process to exit


if sys.platform == "win32":
    loop = asyncio.ProactorEventLoop()
    asyncio.set_event_loop(loop)
else:
    loop = asyncio.get_event_loop()

with closing(loop):
    sys.exit(loop.run_until_complete(readline_and_kill(
        "myprogram.exe", "arg1", "arg2")))

readline_and_kill() выполняет следующие задачи:

  • запустите подпроцесс, перенаправьте его стандартный вывод в канал
  • асинхронно считывает строку из стандартного вывода подпроцесса
  • уничтожить подпроцесс
  • подождите, пока он завершится

При необходимости каждый шаг может быть ограничен секундами ожидания.

Попробуйте асинхронный процесс модуль.Например:

import os
from asyncproc import Process
myProc = Process("myprogram.app")

while True:
    # check to see if process has ended
    poll = myProc.wait(os.WNOHANG)
    if poll != None:
        break
    # print any new output
    out = myProc.read()
    if out != "":
        print out

Модуль заботится обо всех потоках, как предложил С.Лотт.

Вы можете сделать это действительно легко в Скрученный.В зависимости от вашей существующей базы кода это может быть не так просто в использовании, но если вы создаете искаженное приложение, то подобные вещи становятся почти тривиальными.Вы создаете ProcessProtocol класс, и переопределить outReceived() способ.Скрученный (в зависимости от используемого реактора) обычно представляет собой просто большой select() цикл с установленными обратными вызовами для обработки данных из разных файловых дескрипторов (часто сетевых сокетов).Таким образом , outReceived() метод - это просто установка обратного вызова для обработки данных, поступающих из STDOUT.Простой пример, демонстрирующий это поведение, выглядит следующим образом:

from twisted.internet import protocol, reactor

class MyProcessProtocol(protocol.ProcessProtocol):

    def outReceived(self, data):
        print data

proc = MyProcessProtocol()
reactor.spawnProcess(proc, './myprogram', ['./myprogram', 'arg1', 'arg2', 'arg3'])
reactor.run()

В Искаженная документация имеет некоторую хорошую информацию по этому поводу.

Если вы создадите все свое приложение на основе Twisted, это сделает асинхронную связь с другими процессами, локальными или удаленными, действительно элегантной, как это.С другой стороны, если ваша программа не построена поверх Twisted, это на самом деле будет не так уж полезно.Надеюсь, это может быть полезно другим читателям, даже если это неприменимо для вашего конкретного приложения.

Используйте выбрать и прочитать (1).

import subprocess     #no new requirements
def readAllSoFar(proc, retVal=''): 
  while (select.select([proc.stdout],[],[],0)[0]!=[]):   
    retVal+=proc.stdout.read(1)
  return retVal
p = subprocess.Popen(['/bin/ls'], stdout=subprocess.PIPE)
while not p.poll():
  print (readAllSoFar(p))

Для readline()-как:

lines = ['']
while not p.poll():
  lines = readAllSoFar(p, lines[-1]).split('\n')
  for a in range(len(lines)-1):
    print a
lines = readAllSoFar(p, lines[-1]).split('\n')
for a in range(len(lines)-1):
  print a

Одно из решений состоит в том, чтобы создать другой процесс для выполнения вашего чтения процесса или создать поток процесса с таймаутом.

Вот потоковая версия функции таймаута:

http://code.activestate.com/recipes/473878/

Однако нужно ли вам читать стандартный вывод по мере его поступления?Другим решением может быть сброс выходных данных в файл и ожидание завершения процесса с использованием p.подождите().

f = open('myprogram_output.txt','w')
p = subprocess.Popen('myprogram.exe', stdout=f)
p.wait()
f.close()


str = open('myprogram_output.txt','r').read()

Отказ от ответственности:это работает только для tornado

Вы можете сделать это, установив fd как неблокирующий, а затем использовать ioloop для регистрации обратных вызовов.Я упаковал это в яйцо под названием торнадо_подпроцесс и вы можете установить его через PyPI:

easy_install tornado_subprocess

теперь вы можете сделать что-то вроде этого:

import tornado_subprocess
import tornado.ioloop

    def print_res( status, stdout, stderr ) :
    print status, stdout, stderr
    if status == 0:
        print "OK:"
        print stdout
    else:
        print "ERROR:"
        print stderr

t = tornado_subprocess.Subprocess( print_res, timeout=30, args=[ "cat", "/etc/passwd" ] )
t.start()
tornado.ioloop.IOLoop.instance().start()

вы также можете использовать его с обработчиком запросов

class MyHandler(tornado.web.RequestHandler):
    def on_done(self, status, stdout, stderr):
        self.write( stdout )
        self.finish()

    @tornado.web.asynchronous
    def get(self):
        t = tornado_subprocess.Subprocess( self.on_done, timeout=30, args=[ "cat", "/etc/passwd" ] )
        t.start()

Существующие решения у меня не сработали (подробности ниже).Что, наконец, сработало, так это реализовать readline с использованием read(1) (на основе этот ответ).Последнее не блокирует:

from subprocess import Popen, PIPE
from threading import Thread
def process_output(myprocess): #output-consuming thread
    nextline = None
    buf = ''
    while True:
        #--- extract line using read(1)
        out = myprocess.stdout.read(1)
        if out == '' and myprocess.poll() != None: break
        if out != '':
            buf += out
            if out == '\n':
                nextline = buf
                buf = ''
        if not nextline: continue
        line = nextline
        nextline = None

        #--- do whatever you want with line here
        print 'Line is:', line
    myprocess.stdout.close()

myprocess = Popen('myprogram.exe', stdout=PIPE) #output-producing process
p1 = Thread(target=process_output, args=(dcmpid,)) #output-consuming thread
p1.daemon = True
p1.start()

#--- do whatever here and then kill process and thread if needed
if myprocess.poll() == None: #kill process; will automatically stop thread
    myprocess.kill()
    myprocess.wait()
if p1 and p1.is_alive(): #wait for thread to finish
    p1.join()

Почему существующие решения не сработали:

  1. Решения, требующие readline (включая решения, основанные на очереди), всегда блокируются.Трудно (невозможно?) прервать поток, который выполняет readline.Он уничтожается только тогда, когда завершается процесс, который его создал, но не тогда, когда завершается процесс, производящий выходные данные.
  2. Смешивание низкоуровневого fcntl с высокоуровневыми вызовами readline может работать некорректно, как указал anonnn.
  3. Использование select.poll() является аккуратным, но не работает в Windows в соответствии с документами python.
  4. Использование сторонних библиотек кажется излишним для этой задачи и добавляет дополнительные зависимости.

Эта версия неблокирующего чтения не делает требуются специальные модули, и они будут работать "из коробки" в большинстве дистрибутивов Linux.

import os
import sys
import time
import fcntl
import subprocess

def async_read(fd):
    # set non-blocking flag while preserving old flags
    fl = fcntl.fcntl(fd, fcntl.F_GETFL)
    fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
    # read char until EOF hit
    while True:
        try:
            ch = os.read(fd.fileno(), 1)
            # EOF
            if not ch: break                                                                                                                                                              
            sys.stdout.write(ch)
        except OSError:
            # waiting for data be available on fd
            pass

def shell(args, async=True):
    # merge stderr and stdout
    proc = subprocess.Popen(args, shell=False, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
    if async: async_read(proc.stdout)
    sout, serr = proc.communicate()
    return (sout, serr)

if __name__ == '__main__':
    cmd = 'ping 8.8.8.8'
    sout, serr = shell(cmd.split())

Я добавляю эту проблему, чтобы прочитать какой-нибудь подпроцесс.Открываю стандартный вывод.Вот мое неблокирующее решение для чтения:

import fcntl

def non_block_read(output):
    fd = output.fileno()
    fl = fcntl.fcntl(fd, fcntl.F_GETFL)
    fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
    try:
        return output.read()
    except:
        return ""

# Use example
from subprocess import *
sb = Popen("echo test && sleep 1000", shell=True, stdout=PIPE)
sb.kill()

# sb.stdout.read() # <-- This will block
non_block_read(sb.stdout)
'test\n'

Вот мой код, используемый для получения каждого вывода из подпроцесса ASAP, включая частичные строки.Он перекачивает одновременно и stdout, и stderr в почти правильном порядке.

Протестирован и корректно работает на Python 2.7 linux и Windows.

#!/usr/bin/python
#
# Runner with stdout/stderr catcher
#
from sys import argv
from subprocess import Popen, PIPE
import os, io
from threading import Thread
import Queue
def __main__():
    if (len(argv) > 1) and (argv[-1] == "-sub-"):
        import time, sys
        print "Application runned!"
        time.sleep(2)
        print "Slept 2 second"
        time.sleep(1)
        print "Slept 1 additional second",
        time.sleep(2)
        sys.stderr.write("Stderr output after 5 seconds")
        print "Eol on stdin"
        sys.stderr.write("Eol on stderr\n")
        time.sleep(1)
        print "Wow, we have end of work!",
    else:
        os.environ["PYTHONUNBUFFERED"]="1"
        try:
            p = Popen( argv + ["-sub-"],
                       bufsize=0, # line-buffered
                       stdin=PIPE, stdout=PIPE, stderr=PIPE )
        except WindowsError, W:
            if W.winerror==193:
                p = Popen( argv + ["-sub-"],
                           shell=True, # Try to run via shell
                           bufsize=0, # line-buffered
                           stdin=PIPE, stdout=PIPE, stderr=PIPE )
            else:
                raise
        inp = Queue.Queue()
        sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
        serr = io.open(p.stderr.fileno(), 'rb', closefd=False)
        def Pump(stream, category):
            queue = Queue.Queue()
            def rdr():
                while True:
                    buf = stream.read1(8192)
                    if len(buf)>0:
                        queue.put( buf )
                    else:
                        queue.put( None )
                        return
            def clct():
                active = True
                while active:
                    r = queue.get()
                    try:
                        while True:
                            r1 = queue.get(timeout=0.005)
                            if r1 is None:
                                active = False
                                break
                            else:
                                r += r1
                    except Queue.Empty:
                        pass
                    inp.put( (category, r) )
            for tgt in [rdr, clct]:
                th = Thread(target=tgt)
                th.setDaemon(True)
                th.start()
        Pump(sout, 'stdout')
        Pump(serr, 'stderr')

        while p.poll() is None:
            # App still working
            try:
                chan,line = inp.get(timeout = 1.0)
                if chan=='stdout':
                    print "STDOUT>>", line, "<?<"
                elif chan=='stderr':
                    print " ERROR==", line, "=?="
            except Queue.Empty:
                pass
        print "Finish"

if __name__ == '__main__':
    __main__()

Добавляю этот ответ здесь, поскольку он предоставляет возможность устанавливать неблокирующие каналы в Windows и Unix.

Все эти ctypes подробности благодаря ответ @techtonik's.

Существует слегка измененная версия, которая будет использоваться как в системах Unix, так и в системах Windows.

  • Совместимость с Python3 (требуется лишь незначительное изменение).
  • Включает версию posix и определяет исключение для использования либо для того, либо для другого.

Таким образом, вы можете использовать одну и ту же функцию и исключение для кода Unix и Windows.

# pipe_non_blocking.py (module)
"""
Example use:

    p = subprocess.Popen(
            command,
            stdout=subprocess.PIPE,
            )

    pipe_non_blocking_set(p.stdout.fileno())

    try:
        data = os.read(p.stdout.fileno(), 1)
    except PortableBlockingIOError as ex:
        if not pipe_non_blocking_is_error_blocking(ex):
            raise ex
"""


__all__ = (
    "pipe_non_blocking_set",
    "pipe_non_blocking_is_error_blocking",
    "PortableBlockingIOError",
    )

import os


if os.name == "nt":
    def pipe_non_blocking_set(fd):
        # Constant could define globally but avoid polluting the name-space
        # thanks to: https://stackoverflow.com/questions/34504970
        import msvcrt

        from ctypes import windll, byref, wintypes, WinError, POINTER
        from ctypes.wintypes import HANDLE, DWORD, BOOL

        LPDWORD = POINTER(DWORD)

        PIPE_NOWAIT = wintypes.DWORD(0x00000001)

        def pipe_no_wait(pipefd):
            SetNamedPipeHandleState = windll.kernel32.SetNamedPipeHandleState
            SetNamedPipeHandleState.argtypes = [HANDLE, LPDWORD, LPDWORD, LPDWORD]
            SetNamedPipeHandleState.restype = BOOL

            h = msvcrt.get_osfhandle(pipefd)

            res = windll.kernel32.SetNamedPipeHandleState(h, byref(PIPE_NOWAIT), None, None)
            if res == 0:
                print(WinError())
                return False
            return True

        return pipe_no_wait(fd)

    def pipe_non_blocking_is_error_blocking(ex):
        if not isinstance(ex, PortableBlockingIOError):
            return False
        from ctypes import GetLastError
        ERROR_NO_DATA = 232

        return (GetLastError() == ERROR_NO_DATA)

    PortableBlockingIOError = OSError
else:
    def pipe_non_blocking_set(fd):
        import fcntl
        fl = fcntl.fcntl(fd, fcntl.F_GETFL)
        fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
        return True

    def pipe_non_blocking_is_error_blocking(ex):
        if not isinstance(ex, PortableBlockingIOError):
            return False
        return True

    PortableBlockingIOError = BlockingIOError

Чтобы избежать чтения неполных данных, я закончил тем, что написал свой собственный генератор строк чтения (который возвращает строку байтов для каждой строки).

Это генератор, так что вы можете, например...

def non_blocking_readlines(f, chunk=1024):
    """
    Iterate over lines, yielding b'' when nothings left
    or when new data is not yet available.

    stdout_iter = iter(non_blocking_readlines(process.stdout))

    line = next(stdout_iter)  # will be a line or b''.
    """
    import os

    from .pipe_non_blocking import (
            pipe_non_blocking_set,
            pipe_non_blocking_is_error_blocking,
            PortableBlockingIOError,
            )

    fd = f.fileno()
    pipe_non_blocking_set(fd)

    blocks = []

    while True:
        try:
            data = os.read(fd, chunk)
            if not data:
                # case were reading finishes with no trailing newline
                yield b''.join(blocks)
                blocks.clear()
        except PortableBlockingIOError as ex:
            if not pipe_non_blocking_is_error_blocking(ex):
                raise ex

            yield b''
            continue

        while True:
            n = data.find(b'\n')
            if n == -1:
                break

            yield b''.join(blocks) + data[:n + 1]
            data = data[n + 1:]
            blocks.clear()
        blocks.append(data)

У меня есть исходная проблема спрашивающего, но я не хотел вызывать потоки.Я смешал решение Джесси с прямым чтением () из канала и моим собственным обработчиком буфера для чтения строк (однако мой подпроцесс - ping - всегда записывал полные строки < размер системной страницы).Я избегаю ожидания занятости, только читая в gobject-registered io watch.В эти дни я обычно запускаю код внутри gobject MainLoop, чтобы избежать потоков.

def set_up_ping(ip, w):
# run the sub-process
# watch the resultant pipe
p = subprocess.Popen(['/bin/ping', ip], stdout=subprocess.PIPE)
# make stdout a non-blocking file
fl = fcntl.fcntl(p.stdout, fcntl.F_GETFL)
fcntl.fcntl(p.stdout, fcntl.F_SETFL, fl | os.O_NONBLOCK)
stdout_gid = gobject.io_add_watch(p.stdout, gobject.IO_IN, w)
return stdout_gid # for shutting down

Наблюдатель - это

def watch(f, *other):
print 'reading',f.read()
return True

И основная программа настраивает ping, а затем вызывает почтовый цикл gobject.

def main():
set_up_ping('192.168.1.8', watch)
# discard gid as unused here
gobject.MainLoop().run()

Любая другая работа связана с обратными вызовами в gobject.

В выберите модуль помогает вам определить, где находится следующий полезный ввод.

Тем не менее, вы почти всегда довольны отдельными потоками.Один блокирует чтение stdin, другой делает это везде, где вы не хотите блокировать.

зачем беспокоить поток и очередь?в отличие от readline(), BufferedReader.read1() не будет блокировать ожидание \ n, он возвращается как можно скорее, если поступает какой-либо вывод.

#!/usr/bin/python
from subprocess import Popen, PIPE, STDOUT
import io

def __main__():
    try:
        p = Popen( ["ping", "-n", "3", "127.0.0.1"], stdin=PIPE, stdout=PIPE, stderr=STDOUT )
    except: print("Popen failed"); quit()
    sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
    while True:
        buf = sout.read1(1024)
        if len(buf) == 0: break
        print buf,

if __name__ == '__main__':
    __main__()

В моем случае мне нужен был модуль ведения журнала, который улавливает выходные данные фоновых приложений и дополняет их (добавляя временные метки, цвета и т.д.).

В итоге я получил фоновый поток, который выполняет фактический ввод-вывод.Следующий код предназначен только для платформ POSIX.Я удалил несущественные части.

Если кто-то собирается использовать этого зверя для длительных запусков, подумайте об управлении открытыми дескрипторами.В моем случае это не было большой проблемой.

# -*- python -*-
import fcntl
import threading
import sys, os, errno
import subprocess

class Logger(threading.Thread):
    def __init__(self, *modules):
        threading.Thread.__init__(self)
        try:
            from select import epoll, EPOLLIN
            self.__poll = epoll()
            self.__evt = EPOLLIN
            self.__to = -1
        except:
            from select import poll, POLLIN
            print 'epoll is not available'
            self.__poll = poll()
            self.__evt = POLLIN
            self.__to = 100
        self.__fds = {}
        self.daemon = True
        self.start()

    def run(self):
        while True:
            events = self.__poll.poll(self.__to)
            for fd, ev in events:
                if (ev&self.__evt) != self.__evt:
                    continue
                try:
                    self.__fds[fd].run()
                except Exception, e:
                    print e

    def add(self, fd, log):
        assert not self.__fds.has_key(fd)
        self.__fds[fd] = log
        self.__poll.register(fd, self.__evt)

class log:
    logger = Logger()

    def __init__(self, name):
        self.__name = name
        self.__piped = False

    def fileno(self):
        if self.__piped:
            return self.write
        self.read, self.write = os.pipe()
        fl = fcntl.fcntl(self.read, fcntl.F_GETFL)
        fcntl.fcntl(self.read, fcntl.F_SETFL, fl | os.O_NONBLOCK)
        self.fdRead = os.fdopen(self.read)
        self.logger.add(self.read, self)
        self.__piped = True
        return self.write

    def __run(self, line):
        self.chat(line, nl=False)

    def run(self):
        while True:
            try: line = self.fdRead.readline()
            except IOError, exc:
                if exc.errno == errno.EAGAIN:
                    return
                raise
            self.__run(line)

    def chat(self, line, nl=True):
        if nl: nl = '\n'
        else: nl = ''
        sys.stdout.write('[%s] %s%s' % (self.__name, line, nl))

def system(command, param=[], cwd=None, env=None, input=None, output=None):
    args = [command] + param
    p = subprocess.Popen(args, cwd=cwd, stdout=output, stderr=output, stdin=input, env=env, bufsize=0)
    p.wait()

ls = log('ls')
ls.chat('go')
system("ls", ['-l', '/'], output=ls)

date = log('date')
date.chat('go')
system("date", output=date)

Я создал библиотеку, основанную на J.F.Решение Себастьяна.Вы можете использовать это.

https://github.com/cenkalti/what

Работаю с Дж.Ф.Ответ Себастьяна и несколько других источников, я собрал простой менеджер подпроцессов.Он обеспечивает неблокирующее чтение запроса, а также параллельный запуск нескольких процессов.Он не использует какой-либо специфичный для ОС вызов (насколько мне известно) и, следовательно, должен работать где угодно.

Это доступно из pypi, так что просто pip install shelljob.Обратитесь к страница проекта для получения примеров и полных документов.

Редактировать:Эта реализация все еще блокируется.Используй Дж.Ф.Себастьяна ответ вместо этого.

Я попробовал лучший ответ, но дополнительный риск и обслуживание кода потока вызывали беспокойство.

Просматривая модуль ввода -вывода (и будучи ограниченным версией 2.6), я нашел BufferedReader.Это мое беспоточное, неблокирующее решение.

import io
from subprocess import PIPE, Popen

p = Popen(['myprogram.exe'], stdout=PIPE)

SLEEP_DELAY = 0.001

# Create an io.BufferedReader on the file descriptor for stdout
with io.open(p.stdout.fileno(), 'rb', closefd=False) as buffer:
  while p.poll() == None:
      time.sleep(SLEEP_DELAY)
      while '\n' in bufferedStdout.peek(bufferedStdout.buffer_size):
          line = buffer.readline()
          # do stuff with the line

  # Handle any remaining output after the process has ended
  while buffer.peek():
    line = buffer.readline()
    # do stuff with the line

Недавно я наткнулся на ту же проблему Мне нужно читать по одной строке за раз из потока (конечный запуск в подпроцессе) в неблокирующем режиме Я хотел избежать следующих проблем:чтобы не сжигать процессор, не считывайте поток на один байт (как это сделала readline ) и т. Д

Вот моя реализация https://gist.github.com/grubberr/5501e1a9760c3eab5e0a он не поддерживает Windows (опрос), не обрабатывает EOF, но у меня это работает хорошо

Это пример запуска интерактивной команды в подпроцессе, а стандартный вывод является интерактивным с помощью псевдотерминала.Вы можете обратиться к: https://stackoverflow.com/a/43012138/3555925

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import os
import sys
import select
import termios
import tty
import pty
from subprocess import Popen

command = 'bash'
# command = 'docker run -it --rm centos /bin/bash'.split()

# save original tty setting then set it to raw mode
old_tty = termios.tcgetattr(sys.stdin)
tty.setraw(sys.stdin.fileno())

# open pseudo-terminal to interact with subprocess
master_fd, slave_fd = pty.openpty()

# use os.setsid() make it run in a new process group, or bash job control will not be enabled
p = Popen(command,
          preexec_fn=os.setsid,
          stdin=slave_fd,
          stdout=slave_fd,
          stderr=slave_fd,
          universal_newlines=True)

while p.poll() is None:
    r, w, e = select.select([sys.stdin, master_fd], [], [])
    if sys.stdin in r:
        d = os.read(sys.stdin.fileno(), 10240)
        os.write(master_fd, d)
    elif master_fd in r:
        o = os.read(master_fd, 10240)
        if o:
            os.write(sys.stdout.fileno(), o)

# restore tty settings back
termios.tcsetattr(sys.stdin, termios.TCSADRAIN, old_tty)

Моя проблема немного отличается, поскольку я хотел собрать как stdout, так и stderr из запущенного процесса, но в конечном счете то же самое, поскольку я хотел отобразить выходные данные в виджете в том виде, в каком они сгенерированы.

Я не хотел прибегать ко многим из предложенных обходных путей с использованием очередей или дополнительных потоков, поскольку они не должны быть необходимы для выполнения такой распространенной задачи, как запуск другого скрипта и сбор его выходных данных.

После прочтения предлагаемых решений и документов python я решил свою проблему с приведенной ниже реализацией.Да, это работает только для POSIX, поскольку я использую select вызов функции.

Я согласен, что документы сбивают с толку, а реализация неудобна для такой распространенной скриптовой задачи.Я считаю, что более старые версии python имеют разные значения по умолчанию для Popen и разные объяснения, так что возникло много путаницы.Кажется, это хорошо работает как для Python 2.7.12, так и для 3.5.2.

Ключ состоял в том, чтобы установить bufsize=1 для буферизации строк, а затем universal_newlines=True обрабатывать как текстовый файл вместо двоичного, который, по-видимому, становится стандартным при настройке bufsize=1.

class workerThread(QThread):
   def __init__(self, cmd):
      QThread.__init__(self)
      self.cmd = cmd
      self.result = None           ## return code
      self.error = None            ## flag indicates an error
      self.errorstr = ""           ## info message about the error

   def __del__(self):
      self.wait()
      DEBUG("Thread removed")

   def run(self):
      cmd_list = self.cmd.split(" ")   
      try:
         cmd = subprocess.Popen(cmd_list, bufsize=1, stdin=None
                                        , universal_newlines=True
                                        , stderr=subprocess.PIPE
                                        , stdout=subprocess.PIPE)
      except OSError:
         self.error = 1
         self.errorstr = "Failed to execute " + self.cmd
         ERROR(self.errorstr)
      finally:
         VERBOSE("task started...")
      import select
      while True:
         try:
            r,w,x = select.select([cmd.stdout, cmd.stderr],[],[])
            if cmd.stderr in r:
               line = cmd.stderr.readline()
               if line != "":
                  line = line.strip()
                  self.emit(SIGNAL("update_error(QString)"), line)
            if cmd.stdout in r:
               line = cmd.stdout.readline()
               if line == "":
                  break
               line = line.strip()
               self.emit(SIGNAL("update_output(QString)"), line)
         except IOError:
            pass
      cmd.wait()
      self.result = cmd.returncode
      if self.result < 0:
         self.error = 1
         self.errorstr = "Task terminated by signal " + str(self.result)
         ERROR(self.errorstr)
         return
      if self.result:
         self.error = 1
         self.errorstr = "exit code " + str(self.result)
         ERROR(self.errorstr)
         return
      return

ERROR, DEBUG и VERBOSE - это просто макросы, которые выводят выходные данные на терминал.

Это решение, ИМХО, эффективно на 99,99%, поскольку оно по-прежнему использует блокировку readline функция, поэтому мы предполагаем, что вспомогательный процесс хорош и выводит полные строки.

Я приветствую обратную связь для улучшения решения, поскольку я все еще новичок в Python.

Это решение использует select модуль для "чтения любых доступных данных" из потока ввода-вывода.Эта функция изначально блокируется до тех пор, пока данные не станут доступны, но затем считывает только те данные, которые доступны, и больше не блокирует.

Учитывая тот факт, что он использует select модуль, это работает только в Unix.

Код полностью совместим с PEP8.

import select


def read_available(input_stream, max_bytes=None):
    """
    Blocks until any data is available, then all available data is then read and returned.
    This function returns an empty string when end of stream is reached.

    Args:
        input_stream: The stream to read from.
        max_bytes (int|None): The maximum number of bytes to read. This function may return fewer bytes than this.

    Returns:
        str
    """
    # Prepare local variables
    input_streams = [input_stream]
    empty_list = []
    read_buffer = ""

    # Initially block for input using 'select'
    if len(select.select(input_streams, empty_list, empty_list)[0]) > 0:

        # Poll read-readiness using 'select'
        def select_func():
            return len(select.select(input_streams, empty_list, empty_list, 0)[0]) > 0

        # Create while function based on parameters
        if max_bytes is not None:
            def while_func():
                return (len(read_buffer) < max_bytes) and select_func()
        else:
            while_func = select_func

        while True:
            # Read single byte at a time
            read_data = input_stream.read(1)
            if len(read_data) == 0:
                # End of stream
                break
            # Append byte to string buffer
            read_buffer += read_data
            # Check if more data is available
            if not while_func():
                break

    # Return read buffer
    return read_buffer

Я также столкнулся с проблемой, описанной Джесси и решил это, используя "выбрать" как Брэдли, Энди и другие делали это, но в режиме блокировки, чтобы избежать цикла занятости.Он использует фиктивный канал в качестве поддельного stdin.Выберите блоки и дождитесь, пока либо stdin, либо канал будут готовы.При нажатии клавиши stdin разблокирует select, и значение ключа может быть извлечено с помощью read(1).Когда другой поток записывает данные в канал, канал разблокирует select, и это может быть воспринято как указание на то, что потребность в stdin отпала.Вот некоторый справочный код:

import sys
import os
from select import select

# -------------------------------------------------------------------------    
# Set the pipe (fake stdin) to simulate a final key stroke
# which will unblock the select statement
readEnd, writeEnd = os.pipe()
readFile = os.fdopen(readEnd)
writeFile = os.fdopen(writeEnd, "w")

# -------------------------------------------------------------------------
def getKey():

    # Wait for stdin or pipe (fake stdin) to be ready
    dr,dw,de = select([sys.__stdin__, readFile], [], [])

    # If stdin is the one ready then read it and return value
    if sys.__stdin__ in dr:
        return sys.__stdin__.read(1)   # For Windows use ----> getch() from module msvcrt

    # Must finish
    else:
        return None

# -------------------------------------------------------------------------
def breakStdinRead():
    writeFile.write(' ')
    writeFile.flush()

# -------------------------------------------------------------------------
# MAIN CODE

# Get key stroke
key = getKey()

# Keyboard input
if key:
    # ... do your stuff with the key value

# Faked keystroke
else:
    # ... use of stdin finished

# -------------------------------------------------------------------------
# OTHER THREAD CODE

breakStdinRead()

В современном Python дела обстоят намного лучше.

Вот простая дочерняя программа ",hello.py ":

#!/usr/bin/env python3

while True:
    i = input()
    if i == "quit":
        break
    print(f"hello {i}")

И программа для взаимодействия с ним:

import asyncio


async def main():
    proc = await asyncio.subprocess.create_subprocess_exec(
        "./hello.py", stdin=asyncio.subprocess.PIPE, stdout=asyncio.subprocess.PIPE
    )
    proc.stdin.write(b"bob\n")
    print(await proc.stdout.read(1024))
    proc.stdin.write(b"alice\n")
    print(await proc.stdout.read(1024))
    proc.stdin.write(b"quit\n")
    await proc.wait()


asyncio.run(main())

Это выводит:

b'hello bob\n'
b'hello alice\n'

Обратите внимание, что фактический шаблон, который также используется почти во всех предыдущих ответах, как здесь, так и в связанных вопросах, заключается в том, чтобы установить для дескриптора стандартного файла дочернего элемента значение неблокирующий, а затем опросить его в каком-то цикле выбора.В наши дни, конечно, этот цикл обеспечивается asyncio.

Вот модуль, который поддерживает неблокирующее чтение и фоновую запись в python:

https://pypi.python.org/pypi/python-nonblock

Предоставляет функцию,

nonblock_read, который будет считывать данные из потока, если таковые имеются, в противном случае возвращает пустую строку (или нет, если поток закрыт с другой стороны и все возможные данные были прочитаны)

Вы также можете рассмотреть модуль python-subprocess2,

https://pypi.python.org/pypi/python-subprocess2

который добавляется к модулю подпроцесса.Таким образом, к объекту, возвращенному из "subprocess.Popen", добавляется дополнительный метод runInBackground.Это запускает поток и возвращает объект, который будет автоматически заполняться по мере записи материала в stdout / stderr, не блокируя ваш основной поток.

Наслаждайтесь!

Лицензировано под: CC-BY-SA с атрибуция
Не связан с StackOverflow
scroll top