Неблокирующее чтение в подпроцессе.КАНАЛ в python
-
22-08-2019 - |
Вопрос
Я использую модуль подпроцесса чтобы запустить подпроцесс и подключиться к его выходному потоку (stdout).Я хочу иметь возможность выполнять неблокирующие чтения в его стандартном выводе.Есть ли способ сделать .readline неблокирующим или проверить, есть ли данные в потоке, прежде чем я вызову .readline
?Я бы хотел, чтобы это было переносимым или, по крайней мере, работало под Windows и Linux.
вот как я делаю это на данный момент (это блокирует .readline
если данные недоступны):
p = subprocess.Popen('myprogram.exe', stdout = subprocess.PIPE)
output_str = p.stdout.readline()
Решение
fcntl
, select
, asyncproc
в данном случае это не поможет.
Надежный способ прочитать поток без блокировки независимо от операционной системы - это использовать Queue.get_nowait()
:
import sys
from subprocess import PIPE, Popen
from threading import Thread
try:
from queue import Queue, Empty
except ImportError:
from Queue import Queue, Empty # python 2.x
ON_POSIX = 'posix' in sys.builtin_module_names
def enqueue_output(out, queue):
for line in iter(out.readline, b''):
queue.put(line)
out.close()
p = Popen(['myprogram.exe'], stdout=PIPE, bufsize=1, close_fds=ON_POSIX)
q = Queue()
t = Thread(target=enqueue_output, args=(p.stdout, q))
t.daemon = True # thread dies with the program
t.start()
# ... do other things here
# read line without blocking
try: line = q.get_nowait() # or q.get(timeout=.1)
except Empty:
print('no output yet')
else: # got line
# ... do something with line
Другие советы
У меня часто возникала подобная проблема;Программы на Python, которые я часто пишу, должны иметь возможность выполнять некоторые основные функциональные возможности, одновременно принимая пользовательский ввод из командной строки (stdin).Простое помещение функциональности обработки пользовательского ввода в другой поток не решает проблему, потому что readline()
блокирует и не имеет таймаута.Если основная функциональность завершена и больше нет необходимости ждать дальнейшего пользовательского ввода, я обычно хочу, чтобы моя программа завершилась, но это невозможно, потому что readline()
все еще блокируется в другом потоке, ожидающем строки.Решение, которое я нашел для этой проблемы, состоит в том, чтобы сделать stdin неблокирующим файлом с помощью модуля fcntl:
import fcntl
import os
import sys
# make stdin a non-blocking file
fd = sys.stdin.fileno()
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
# user input handling thread
while mainThreadIsRunning:
try: input = sys.stdin.readline()
except: continue
handleInput(input)
На мой взгляд, это немного чище, чем использовать модули select или signal для решения этой проблемы, но опять же, это работает только в UNIX...
Python 3.4 вводит новые предварительный API для асинхронного ввода-вывода -- asyncio
модуль.
Этот подход аналогичен twisted
-основанный на ответе @Bryan Ward -- определите протокол, и его методы будут вызываться, как только данные будут готовы:
#!/usr/bin/env python3
import asyncio
import os
class SubprocessProtocol(asyncio.SubprocessProtocol):
def pipe_data_received(self, fd, data):
if fd == 1: # got stdout data (bytes)
print(data)
def connection_lost(self, exc):
loop.stop() # end loop.run_forever()
if os.name == 'nt':
loop = asyncio.ProactorEventLoop() # for subprocess' pipes on Windows
asyncio.set_event_loop(loop)
else:
loop = asyncio.get_event_loop()
try:
loop.run_until_complete(loop.subprocess_exec(SubprocessProtocol,
"myprogram.exe", "arg1", "arg2"))
loop.run_forever()
finally:
loop.close()
Видишь "Подпроцесс" в документах.
Есть высокоуровневый интерфейс asyncio.create_subprocess_exec()
это возвращает Process
Объекты это позволяет читать строку асинхронно, используя StreamReader.readline()
сопрограмма
(с async
/await
Синтаксис Python 3.5+):
#!/usr/bin/env python3.5
import asyncio
import locale
import sys
from asyncio.subprocess import PIPE
from contextlib import closing
async def readline_and_kill(*args):
# start child process
process = await asyncio.create_subprocess_exec(*args, stdout=PIPE)
# read line (sequence of bytes ending with b'\n') asynchronously
async for line in process.stdout:
print("got line:", line.decode(locale.getpreferredencoding(False)))
break
process.kill()
return await process.wait() # wait for the child process to exit
if sys.platform == "win32":
loop = asyncio.ProactorEventLoop()
asyncio.set_event_loop(loop)
else:
loop = asyncio.get_event_loop()
with closing(loop):
sys.exit(loop.run_until_complete(readline_and_kill(
"myprogram.exe", "arg1", "arg2")))
readline_and_kill()
выполняет следующие задачи:
- запустите подпроцесс, перенаправьте его стандартный вывод в канал
- асинхронно считывает строку из стандартного вывода подпроцесса
- уничтожить подпроцесс
- подождите, пока он завершится
При необходимости каждый шаг может быть ограничен секундами ожидания.
Попробуйте асинхронный процесс модуль.Например:
import os
from asyncproc import Process
myProc = Process("myprogram.app")
while True:
# check to see if process has ended
poll = myProc.wait(os.WNOHANG)
if poll != None:
break
# print any new output
out = myProc.read()
if out != "":
print out
Модуль заботится обо всех потоках, как предложил С.Лотт.
Вы можете сделать это действительно легко в Скрученный.В зависимости от вашей существующей базы кода это может быть не так просто в использовании, но если вы создаете искаженное приложение, то подобные вещи становятся почти тривиальными.Вы создаете ProcessProtocol
класс, и переопределить outReceived()
способ.Скрученный (в зависимости от используемого реактора) обычно представляет собой просто большой select()
цикл с установленными обратными вызовами для обработки данных из разных файловых дескрипторов (часто сетевых сокетов).Таким образом , outReceived()
метод - это просто установка обратного вызова для обработки данных, поступающих из STDOUT
.Простой пример, демонстрирующий это поведение, выглядит следующим образом:
from twisted.internet import protocol, reactor
class MyProcessProtocol(protocol.ProcessProtocol):
def outReceived(self, data):
print data
proc = MyProcessProtocol()
reactor.spawnProcess(proc, './myprogram', ['./myprogram', 'arg1', 'arg2', 'arg3'])
reactor.run()
В Искаженная документация имеет некоторую хорошую информацию по этому поводу.
Если вы создадите все свое приложение на основе Twisted, это сделает асинхронную связь с другими процессами, локальными или удаленными, действительно элегантной, как это.С другой стороны, если ваша программа не построена поверх Twisted, это на самом деле будет не так уж полезно.Надеюсь, это может быть полезно другим читателям, даже если это неприменимо для вашего конкретного приложения.
Используйте выбрать и прочитать (1).
import subprocess #no new requirements
def readAllSoFar(proc, retVal=''):
while (select.select([proc.stdout],[],[],0)[0]!=[]):
retVal+=proc.stdout.read(1)
return retVal
p = subprocess.Popen(['/bin/ls'], stdout=subprocess.PIPE)
while not p.poll():
print (readAllSoFar(p))
Для readline()-как:
lines = ['']
while not p.poll():
lines = readAllSoFar(p, lines[-1]).split('\n')
for a in range(len(lines)-1):
print a
lines = readAllSoFar(p, lines[-1]).split('\n')
for a in range(len(lines)-1):
print a
Одно из решений состоит в том, чтобы создать другой процесс для выполнения вашего чтения процесса или создать поток процесса с таймаутом.
Вот потоковая версия функции таймаута:
http://code.activestate.com/recipes/473878/
Однако нужно ли вам читать стандартный вывод по мере его поступления?Другим решением может быть сброс выходных данных в файл и ожидание завершения процесса с использованием p.подождите().
f = open('myprogram_output.txt','w')
p = subprocess.Popen('myprogram.exe', stdout=f)
p.wait()
f.close()
str = open('myprogram_output.txt','r').read()
Отказ от ответственности:это работает только для tornado
Вы можете сделать это, установив fd как неблокирующий, а затем использовать ioloop для регистрации обратных вызовов.Я упаковал это в яйцо под названием торнадо_подпроцесс и вы можете установить его через PyPI:
easy_install tornado_subprocess
теперь вы можете сделать что-то вроде этого:
import tornado_subprocess
import tornado.ioloop
def print_res( status, stdout, stderr ) :
print status, stdout, stderr
if status == 0:
print "OK:"
print stdout
else:
print "ERROR:"
print stderr
t = tornado_subprocess.Subprocess( print_res, timeout=30, args=[ "cat", "/etc/passwd" ] )
t.start()
tornado.ioloop.IOLoop.instance().start()
вы также можете использовать его с обработчиком запросов
class MyHandler(tornado.web.RequestHandler):
def on_done(self, status, stdout, stderr):
self.write( stdout )
self.finish()
@tornado.web.asynchronous
def get(self):
t = tornado_subprocess.Subprocess( self.on_done, timeout=30, args=[ "cat", "/etc/passwd" ] )
t.start()
Существующие решения у меня не сработали (подробности ниже).Что, наконец, сработало, так это реализовать readline с использованием read(1) (на основе этот ответ).Последнее не блокирует:
from subprocess import Popen, PIPE
from threading import Thread
def process_output(myprocess): #output-consuming thread
nextline = None
buf = ''
while True:
#--- extract line using read(1)
out = myprocess.stdout.read(1)
if out == '' and myprocess.poll() != None: break
if out != '':
buf += out
if out == '\n':
nextline = buf
buf = ''
if not nextline: continue
line = nextline
nextline = None
#--- do whatever you want with line here
print 'Line is:', line
myprocess.stdout.close()
myprocess = Popen('myprogram.exe', stdout=PIPE) #output-producing process
p1 = Thread(target=process_output, args=(dcmpid,)) #output-consuming thread
p1.daemon = True
p1.start()
#--- do whatever here and then kill process and thread if needed
if myprocess.poll() == None: #kill process; will automatically stop thread
myprocess.kill()
myprocess.wait()
if p1 and p1.is_alive(): #wait for thread to finish
p1.join()
Почему существующие решения не сработали:
- Решения, требующие readline (включая решения, основанные на очереди), всегда блокируются.Трудно (невозможно?) прервать поток, который выполняет readline.Он уничтожается только тогда, когда завершается процесс, который его создал, но не тогда, когда завершается процесс, производящий выходные данные.
- Смешивание низкоуровневого fcntl с высокоуровневыми вызовами readline может работать некорректно, как указал anonnn.
- Использование select.poll() является аккуратным, но не работает в Windows в соответствии с документами python.
- Использование сторонних библиотек кажется излишним для этой задачи и добавляет дополнительные зависимости.
Эта версия неблокирующего чтения не делает требуются специальные модули, и они будут работать "из коробки" в большинстве дистрибутивов Linux.
import os
import sys
import time
import fcntl
import subprocess
def async_read(fd):
# set non-blocking flag while preserving old flags
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
# read char until EOF hit
while True:
try:
ch = os.read(fd.fileno(), 1)
# EOF
if not ch: break
sys.stdout.write(ch)
except OSError:
# waiting for data be available on fd
pass
def shell(args, async=True):
# merge stderr and stdout
proc = subprocess.Popen(args, shell=False, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
if async: async_read(proc.stdout)
sout, serr = proc.communicate()
return (sout, serr)
if __name__ == '__main__':
cmd = 'ping 8.8.8.8'
sout, serr = shell(cmd.split())
Я добавляю эту проблему, чтобы прочитать какой-нибудь подпроцесс.Открываю стандартный вывод.Вот мое неблокирующее решение для чтения:
import fcntl
def non_block_read(output):
fd = output.fileno()
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
try:
return output.read()
except:
return ""
# Use example
from subprocess import *
sb = Popen("echo test && sleep 1000", shell=True, stdout=PIPE)
sb.kill()
# sb.stdout.read() # <-- This will block
non_block_read(sb.stdout)
'test\n'
Вот мой код, используемый для получения каждого вывода из подпроцесса ASAP, включая частичные строки.Он перекачивает одновременно и stdout, и stderr в почти правильном порядке.
Протестирован и корректно работает на Python 2.7 linux и Windows.
#!/usr/bin/python
#
# Runner with stdout/stderr catcher
#
from sys import argv
from subprocess import Popen, PIPE
import os, io
from threading import Thread
import Queue
def __main__():
if (len(argv) > 1) and (argv[-1] == "-sub-"):
import time, sys
print "Application runned!"
time.sleep(2)
print "Slept 2 second"
time.sleep(1)
print "Slept 1 additional second",
time.sleep(2)
sys.stderr.write("Stderr output after 5 seconds")
print "Eol on stdin"
sys.stderr.write("Eol on stderr\n")
time.sleep(1)
print "Wow, we have end of work!",
else:
os.environ["PYTHONUNBUFFERED"]="1"
try:
p = Popen( argv + ["-sub-"],
bufsize=0, # line-buffered
stdin=PIPE, stdout=PIPE, stderr=PIPE )
except WindowsError, W:
if W.winerror==193:
p = Popen( argv + ["-sub-"],
shell=True, # Try to run via shell
bufsize=0, # line-buffered
stdin=PIPE, stdout=PIPE, stderr=PIPE )
else:
raise
inp = Queue.Queue()
sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
serr = io.open(p.stderr.fileno(), 'rb', closefd=False)
def Pump(stream, category):
queue = Queue.Queue()
def rdr():
while True:
buf = stream.read1(8192)
if len(buf)>0:
queue.put( buf )
else:
queue.put( None )
return
def clct():
active = True
while active:
r = queue.get()
try:
while True:
r1 = queue.get(timeout=0.005)
if r1 is None:
active = False
break
else:
r += r1
except Queue.Empty:
pass
inp.put( (category, r) )
for tgt in [rdr, clct]:
th = Thread(target=tgt)
th.setDaemon(True)
th.start()
Pump(sout, 'stdout')
Pump(serr, 'stderr')
while p.poll() is None:
# App still working
try:
chan,line = inp.get(timeout = 1.0)
if chan=='stdout':
print "STDOUT>>", line, "<?<"
elif chan=='stderr':
print " ERROR==", line, "=?="
except Queue.Empty:
pass
print "Finish"
if __name__ == '__main__':
__main__()
Добавляю этот ответ здесь, поскольку он предоставляет возможность устанавливать неблокирующие каналы в Windows и Unix.
Все эти ctypes
подробности благодаря ответ @techtonik's.
Существует слегка измененная версия, которая будет использоваться как в системах Unix, так и в системах Windows.
- Совместимость с Python3 (требуется лишь незначительное изменение).
- Включает версию posix и определяет исключение для использования либо для того, либо для другого.
Таким образом, вы можете использовать одну и ту же функцию и исключение для кода Unix и Windows.
# pipe_non_blocking.py (module)
"""
Example use:
p = subprocess.Popen(
command,
stdout=subprocess.PIPE,
)
pipe_non_blocking_set(p.stdout.fileno())
try:
data = os.read(p.stdout.fileno(), 1)
except PortableBlockingIOError as ex:
if not pipe_non_blocking_is_error_blocking(ex):
raise ex
"""
__all__ = (
"pipe_non_blocking_set",
"pipe_non_blocking_is_error_blocking",
"PortableBlockingIOError",
)
import os
if os.name == "nt":
def pipe_non_blocking_set(fd):
# Constant could define globally but avoid polluting the name-space
# thanks to: https://stackoverflow.com/questions/34504970
import msvcrt
from ctypes import windll, byref, wintypes, WinError, POINTER
from ctypes.wintypes import HANDLE, DWORD, BOOL
LPDWORD = POINTER(DWORD)
PIPE_NOWAIT = wintypes.DWORD(0x00000001)
def pipe_no_wait(pipefd):
SetNamedPipeHandleState = windll.kernel32.SetNamedPipeHandleState
SetNamedPipeHandleState.argtypes = [HANDLE, LPDWORD, LPDWORD, LPDWORD]
SetNamedPipeHandleState.restype = BOOL
h = msvcrt.get_osfhandle(pipefd)
res = windll.kernel32.SetNamedPipeHandleState(h, byref(PIPE_NOWAIT), None, None)
if res == 0:
print(WinError())
return False
return True
return pipe_no_wait(fd)
def pipe_non_blocking_is_error_blocking(ex):
if not isinstance(ex, PortableBlockingIOError):
return False
from ctypes import GetLastError
ERROR_NO_DATA = 232
return (GetLastError() == ERROR_NO_DATA)
PortableBlockingIOError = OSError
else:
def pipe_non_blocking_set(fd):
import fcntl
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
return True
def pipe_non_blocking_is_error_blocking(ex):
if not isinstance(ex, PortableBlockingIOError):
return False
return True
PortableBlockingIOError = BlockingIOError
Чтобы избежать чтения неполных данных, я закончил тем, что написал свой собственный генератор строк чтения (который возвращает строку байтов для каждой строки).
Это генератор, так что вы можете, например...
def non_blocking_readlines(f, chunk=1024):
"""
Iterate over lines, yielding b'' when nothings left
or when new data is not yet available.
stdout_iter = iter(non_blocking_readlines(process.stdout))
line = next(stdout_iter) # will be a line or b''.
"""
import os
from .pipe_non_blocking import (
pipe_non_blocking_set,
pipe_non_blocking_is_error_blocking,
PortableBlockingIOError,
)
fd = f.fileno()
pipe_non_blocking_set(fd)
blocks = []
while True:
try:
data = os.read(fd, chunk)
if not data:
# case were reading finishes with no trailing newline
yield b''.join(blocks)
blocks.clear()
except PortableBlockingIOError as ex:
if not pipe_non_blocking_is_error_blocking(ex):
raise ex
yield b''
continue
while True:
n = data.find(b'\n')
if n == -1:
break
yield b''.join(blocks) + data[:n + 1]
data = data[n + 1:]
blocks.clear()
blocks.append(data)
У меня есть исходная проблема спрашивающего, но я не хотел вызывать потоки.Я смешал решение Джесси с прямым чтением () из канала и моим собственным обработчиком буфера для чтения строк (однако мой подпроцесс - ping - всегда записывал полные строки < размер системной страницы).Я избегаю ожидания занятости, только читая в gobject-registered io watch.В эти дни я обычно запускаю код внутри gobject MainLoop, чтобы избежать потоков.
def set_up_ping(ip, w):
# run the sub-process
# watch the resultant pipe
p = subprocess.Popen(['/bin/ping', ip], stdout=subprocess.PIPE)
# make stdout a non-blocking file
fl = fcntl.fcntl(p.stdout, fcntl.F_GETFL)
fcntl.fcntl(p.stdout, fcntl.F_SETFL, fl | os.O_NONBLOCK)
stdout_gid = gobject.io_add_watch(p.stdout, gobject.IO_IN, w)
return stdout_gid # for shutting down
Наблюдатель - это
def watch(f, *other):
print 'reading',f.read()
return True
И основная программа настраивает ping, а затем вызывает почтовый цикл gobject.
def main():
set_up_ping('192.168.1.8', watch)
# discard gid as unused here
gobject.MainLoop().run()
Любая другая работа связана с обратными вызовами в gobject.
В выберите модуль помогает вам определить, где находится следующий полезный ввод.
Тем не менее, вы почти всегда довольны отдельными потоками.Один блокирует чтение stdin, другой делает это везде, где вы не хотите блокировать.
зачем беспокоить поток и очередь?в отличие от readline(), BufferedReader.read1() не будет блокировать ожидание \ n, он возвращается как можно скорее, если поступает какой-либо вывод.
#!/usr/bin/python
from subprocess import Popen, PIPE, STDOUT
import io
def __main__():
try:
p = Popen( ["ping", "-n", "3", "127.0.0.1"], stdin=PIPE, stdout=PIPE, stderr=STDOUT )
except: print("Popen failed"); quit()
sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
while True:
buf = sout.read1(1024)
if len(buf) == 0: break
print buf,
if __name__ == '__main__':
__main__()
В моем случае мне нужен был модуль ведения журнала, который улавливает выходные данные фоновых приложений и дополняет их (добавляя временные метки, цвета и т.д.).
В итоге я получил фоновый поток, который выполняет фактический ввод-вывод.Следующий код предназначен только для платформ POSIX.Я удалил несущественные части.
Если кто-то собирается использовать этого зверя для длительных запусков, подумайте об управлении открытыми дескрипторами.В моем случае это не было большой проблемой.
# -*- python -*-
import fcntl
import threading
import sys, os, errno
import subprocess
class Logger(threading.Thread):
def __init__(self, *modules):
threading.Thread.__init__(self)
try:
from select import epoll, EPOLLIN
self.__poll = epoll()
self.__evt = EPOLLIN
self.__to = -1
except:
from select import poll, POLLIN
print 'epoll is not available'
self.__poll = poll()
self.__evt = POLLIN
self.__to = 100
self.__fds = {}
self.daemon = True
self.start()
def run(self):
while True:
events = self.__poll.poll(self.__to)
for fd, ev in events:
if (ev&self.__evt) != self.__evt:
continue
try:
self.__fds[fd].run()
except Exception, e:
print e
def add(self, fd, log):
assert not self.__fds.has_key(fd)
self.__fds[fd] = log
self.__poll.register(fd, self.__evt)
class log:
logger = Logger()
def __init__(self, name):
self.__name = name
self.__piped = False
def fileno(self):
if self.__piped:
return self.write
self.read, self.write = os.pipe()
fl = fcntl.fcntl(self.read, fcntl.F_GETFL)
fcntl.fcntl(self.read, fcntl.F_SETFL, fl | os.O_NONBLOCK)
self.fdRead = os.fdopen(self.read)
self.logger.add(self.read, self)
self.__piped = True
return self.write
def __run(self, line):
self.chat(line, nl=False)
def run(self):
while True:
try: line = self.fdRead.readline()
except IOError, exc:
if exc.errno == errno.EAGAIN:
return
raise
self.__run(line)
def chat(self, line, nl=True):
if nl: nl = '\n'
else: nl = ''
sys.stdout.write('[%s] %s%s' % (self.__name, line, nl))
def system(command, param=[], cwd=None, env=None, input=None, output=None):
args = [command] + param
p = subprocess.Popen(args, cwd=cwd, stdout=output, stderr=output, stdin=input, env=env, bufsize=0)
p.wait()
ls = log('ls')
ls.chat('go')
system("ls", ['-l', '/'], output=ls)
date = log('date')
date.chat('go')
system("date", output=date)
Я создал библиотеку, основанную на J.F.Решение Себастьяна.Вы можете использовать это.
Работаю с Дж.Ф.Ответ Себастьяна и несколько других источников, я собрал простой менеджер подпроцессов.Он обеспечивает неблокирующее чтение запроса, а также параллельный запуск нескольких процессов.Он не использует какой-либо специфичный для ОС вызов (насколько мне известно) и, следовательно, должен работать где угодно.
Это доступно из pypi, так что просто pip install shelljob
.Обратитесь к страница проекта для получения примеров и полных документов.
Редактировать:Эта реализация все еще блокируется.Используй Дж.Ф.Себастьяна ответ вместо этого.
Я попробовал лучший ответ, но дополнительный риск и обслуживание кода потока вызывали беспокойство.
Просматривая модуль ввода -вывода (и будучи ограниченным версией 2.6), я нашел BufferedReader.Это мое беспоточное, неблокирующее решение.
import io
from subprocess import PIPE, Popen
p = Popen(['myprogram.exe'], stdout=PIPE)
SLEEP_DELAY = 0.001
# Create an io.BufferedReader on the file descriptor for stdout
with io.open(p.stdout.fileno(), 'rb', closefd=False) as buffer:
while p.poll() == None:
time.sleep(SLEEP_DELAY)
while '\n' in bufferedStdout.peek(bufferedStdout.buffer_size):
line = buffer.readline()
# do stuff with the line
# Handle any remaining output after the process has ended
while buffer.peek():
line = buffer.readline()
# do stuff with the line
Недавно я наткнулся на ту же проблему Мне нужно читать по одной строке за раз из потока (конечный запуск в подпроцессе) в неблокирующем режиме Я хотел избежать следующих проблем:чтобы не сжигать процессор, не считывайте поток на один байт (как это сделала readline ) и т. Д
Вот моя реализация https://gist.github.com/grubberr/5501e1a9760c3eab5e0a он не поддерживает Windows (опрос), не обрабатывает EOF, но у меня это работает хорошо
Это пример запуска интерактивной команды в подпроцессе, а стандартный вывод является интерактивным с помощью псевдотерминала.Вы можете обратиться к: https://stackoverflow.com/a/43012138/3555925
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import os
import sys
import select
import termios
import tty
import pty
from subprocess import Popen
command = 'bash'
# command = 'docker run -it --rm centos /bin/bash'.split()
# save original tty setting then set it to raw mode
old_tty = termios.tcgetattr(sys.stdin)
tty.setraw(sys.stdin.fileno())
# open pseudo-terminal to interact with subprocess
master_fd, slave_fd = pty.openpty()
# use os.setsid() make it run in a new process group, or bash job control will not be enabled
p = Popen(command,
preexec_fn=os.setsid,
stdin=slave_fd,
stdout=slave_fd,
stderr=slave_fd,
universal_newlines=True)
while p.poll() is None:
r, w, e = select.select([sys.stdin, master_fd], [], [])
if sys.stdin in r:
d = os.read(sys.stdin.fileno(), 10240)
os.write(master_fd, d)
elif master_fd in r:
o = os.read(master_fd, 10240)
if o:
os.write(sys.stdout.fileno(), o)
# restore tty settings back
termios.tcsetattr(sys.stdin, termios.TCSADRAIN, old_tty)
Моя проблема немного отличается, поскольку я хотел собрать как stdout, так и stderr из запущенного процесса, но в конечном счете то же самое, поскольку я хотел отобразить выходные данные в виджете в том виде, в каком они сгенерированы.
Я не хотел прибегать ко многим из предложенных обходных путей с использованием очередей или дополнительных потоков, поскольку они не должны быть необходимы для выполнения такой распространенной задачи, как запуск другого скрипта и сбор его выходных данных.
После прочтения предлагаемых решений и документов python я решил свою проблему с приведенной ниже реализацией.Да, это работает только для POSIX, поскольку я использую select
вызов функции.
Я согласен, что документы сбивают с толку, а реализация неудобна для такой распространенной скриптовой задачи.Я считаю, что более старые версии python имеют разные значения по умолчанию для Popen
и разные объяснения, так что возникло много путаницы.Кажется, это хорошо работает как для Python 2.7.12, так и для 3.5.2.
Ключ состоял в том, чтобы установить bufsize=1
для буферизации строк, а затем universal_newlines=True
обрабатывать как текстовый файл вместо двоичного, который, по-видимому, становится стандартным при настройке bufsize=1
.
class workerThread(QThread):
def __init__(self, cmd):
QThread.__init__(self)
self.cmd = cmd
self.result = None ## return code
self.error = None ## flag indicates an error
self.errorstr = "" ## info message about the error
def __del__(self):
self.wait()
DEBUG("Thread removed")
def run(self):
cmd_list = self.cmd.split(" ")
try:
cmd = subprocess.Popen(cmd_list, bufsize=1, stdin=None
, universal_newlines=True
, stderr=subprocess.PIPE
, stdout=subprocess.PIPE)
except OSError:
self.error = 1
self.errorstr = "Failed to execute " + self.cmd
ERROR(self.errorstr)
finally:
VERBOSE("task started...")
import select
while True:
try:
r,w,x = select.select([cmd.stdout, cmd.stderr],[],[])
if cmd.stderr in r:
line = cmd.stderr.readline()
if line != "":
line = line.strip()
self.emit(SIGNAL("update_error(QString)"), line)
if cmd.stdout in r:
line = cmd.stdout.readline()
if line == "":
break
line = line.strip()
self.emit(SIGNAL("update_output(QString)"), line)
except IOError:
pass
cmd.wait()
self.result = cmd.returncode
if self.result < 0:
self.error = 1
self.errorstr = "Task terminated by signal " + str(self.result)
ERROR(self.errorstr)
return
if self.result:
self.error = 1
self.errorstr = "exit code " + str(self.result)
ERROR(self.errorstr)
return
return
ERROR, DEBUG и VERBOSE - это просто макросы, которые выводят выходные данные на терминал.
Это решение, ИМХО, эффективно на 99,99%, поскольку оно по-прежнему использует блокировку readline
функция, поэтому мы предполагаем, что вспомогательный процесс хорош и выводит полные строки.
Я приветствую обратную связь для улучшения решения, поскольку я все еще новичок в Python.
Это решение использует select
модуль для "чтения любых доступных данных" из потока ввода-вывода.Эта функция изначально блокируется до тех пор, пока данные не станут доступны, но затем считывает только те данные, которые доступны, и больше не блокирует.
Учитывая тот факт, что он использует select
модуль, это работает только в Unix.
Код полностью совместим с PEP8.
import select
def read_available(input_stream, max_bytes=None):
"""
Blocks until any data is available, then all available data is then read and returned.
This function returns an empty string when end of stream is reached.
Args:
input_stream: The stream to read from.
max_bytes (int|None): The maximum number of bytes to read. This function may return fewer bytes than this.
Returns:
str
"""
# Prepare local variables
input_streams = [input_stream]
empty_list = []
read_buffer = ""
# Initially block for input using 'select'
if len(select.select(input_streams, empty_list, empty_list)[0]) > 0:
# Poll read-readiness using 'select'
def select_func():
return len(select.select(input_streams, empty_list, empty_list, 0)[0]) > 0
# Create while function based on parameters
if max_bytes is not None:
def while_func():
return (len(read_buffer) < max_bytes) and select_func()
else:
while_func = select_func
while True:
# Read single byte at a time
read_data = input_stream.read(1)
if len(read_data) == 0:
# End of stream
break
# Append byte to string buffer
read_buffer += read_data
# Check if more data is available
if not while_func():
break
# Return read buffer
return read_buffer
Я также столкнулся с проблемой, описанной Джесси и решил это, используя "выбрать" как Брэдли, Энди и другие делали это, но в режиме блокировки, чтобы избежать цикла занятости.Он использует фиктивный канал в качестве поддельного stdin.Выберите блоки и дождитесь, пока либо stdin, либо канал будут готовы.При нажатии клавиши stdin разблокирует select, и значение ключа может быть извлечено с помощью read(1).Когда другой поток записывает данные в канал, канал разблокирует select, и это может быть воспринято как указание на то, что потребность в stdin отпала.Вот некоторый справочный код:
import sys
import os
from select import select
# -------------------------------------------------------------------------
# Set the pipe (fake stdin) to simulate a final key stroke
# which will unblock the select statement
readEnd, writeEnd = os.pipe()
readFile = os.fdopen(readEnd)
writeFile = os.fdopen(writeEnd, "w")
# -------------------------------------------------------------------------
def getKey():
# Wait for stdin or pipe (fake stdin) to be ready
dr,dw,de = select([sys.__stdin__, readFile], [], [])
# If stdin is the one ready then read it and return value
if sys.__stdin__ in dr:
return sys.__stdin__.read(1) # For Windows use ----> getch() from module msvcrt
# Must finish
else:
return None
# -------------------------------------------------------------------------
def breakStdinRead():
writeFile.write(' ')
writeFile.flush()
# -------------------------------------------------------------------------
# MAIN CODE
# Get key stroke
key = getKey()
# Keyboard input
if key:
# ... do your stuff with the key value
# Faked keystroke
else:
# ... use of stdin finished
# -------------------------------------------------------------------------
# OTHER THREAD CODE
breakStdinRead()
В современном Python дела обстоят намного лучше.
Вот простая дочерняя программа ",hello.py ":
#!/usr/bin/env python3
while True:
i = input()
if i == "quit":
break
print(f"hello {i}")
И программа для взаимодействия с ним:
import asyncio
async def main():
proc = await asyncio.subprocess.create_subprocess_exec(
"./hello.py", stdin=asyncio.subprocess.PIPE, stdout=asyncio.subprocess.PIPE
)
proc.stdin.write(b"bob\n")
print(await proc.stdout.read(1024))
proc.stdin.write(b"alice\n")
print(await proc.stdout.read(1024))
proc.stdin.write(b"quit\n")
await proc.wait()
asyncio.run(main())
Это выводит:
b'hello bob\n'
b'hello alice\n'
Обратите внимание, что фактический шаблон, который также используется почти во всех предыдущих ответах, как здесь, так и в связанных вопросах, заключается в том, чтобы установить для дескриптора стандартного файла дочернего элемента значение неблокирующий, а затем опросить его в каком-то цикле выбора.В наши дни, конечно, этот цикл обеспечивается asyncio.
Вот модуль, который поддерживает неблокирующее чтение и фоновую запись в python:
https://pypi.python.org/pypi/python-nonblock
Предоставляет функцию,
nonblock_read, который будет считывать данные из потока, если таковые имеются, в противном случае возвращает пустую строку (или нет, если поток закрыт с другой стороны и все возможные данные были прочитаны)
Вы также можете рассмотреть модуль python-subprocess2,
https://pypi.python.org/pypi/python-subprocess2
который добавляется к модулю подпроцесса.Таким образом, к объекту, возвращенному из "subprocess.Popen", добавляется дополнительный метод runInBackground.Это запускает поток и возвращает объект, который будет автоматически заполняться по мере записи материала в stdout / stderr, не блокируя ваш основной поток.
Наслаждайтесь!