我们有具有模拟照相机的设备。我们有一个卡,它的样本,并对其进行数字化。这是在DirectX全部完成。在这个时间点,替换硬件不是一个选项,但是我们需要的代码,使得我们可以看到这个视频馈送实时不管任何硬件或底层操作系统的变化发生在将来。

沿着这条线,我们选择Qt来实现GUI来查看该相机馈送。但是,如果我们继续在未来Linux或其它嵌入式平台和更改其他硬件(包括在相机/视频采样所居住的物理设备),我们将需要更改摄像机显示软件为好,这将是一个痛苦,因为我们需要将它整合到我们的GUI。

我提出被迁移到其中数据被发送通过套接字到GUI和从插座流被解析之后实况显示的视频的更抽象模型。

首先,这是一个好主意还是一个坏主意?

其次,你将如何实现这样的事情?如何将视频采样器通常会给可用输出?我怎么可以把这个输出通过套接字?一旦我在接收端解析输出,我怎么知道该怎么与输出做(如怎样得到的输出呈现)?我能想到的唯一的事情是将每个样本写入一个文件,然后每一个新样本到达时间显示文件的内容。这似乎是一个低效率的解决方案给我,是否会在所有的工作。

你怎么推荐我处理这个问题?是否有任何跨平台的库可用于这样的事?

感谢您。

编辑:我愿意接受不同的东西,而不是什么上面列出的建议

有帮助吗?

解决方案

凡是复制该视频流是要花费你在性能上,特别是在一个嵌入的空格。在视频大多数情况下,我认为你是不敢轻易尝试使用本地硬件加速,直接爆视频画面更好。随着一些适当的封装,你应该能够使用Qt对周围的视频图形用户界面,并有一类是平台特定的,你用它来控制实际的视频在屏幕上绘图(在哪里画,以及有多大,等等。 )。

修改

您可能也想看看声子库。我还没有看着它多,但它似乎支持可以从一系列的不同的源来获取表示视频。

其他提示

让你看着 QVision ?它是用于管理视频和视频处理基于Qt框架。你并不需要处理,但我认为它会做你想要的。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top