首先,我不知道这样的问题是否已经存在,我尝试过但找不到,所以,如果我道歉。
我试图通过将每个帧发送到客户端,然后在网站上使用Javascript来显示流媒体视频。 (因此,所有这些都可以使用WebSockets运行)。
我在PC上托管Websocket服务器(C#是语言)。因此,我获取了整个屏幕的屏幕截图,并立即将其发送给客户端。
现在,我的问题是:我应该将多个帧(例如3?)存储到一个文件中,然后上传该文件,还是应该像以前一样逐帧发送?我想知道哪一个更快?
谢谢。
首先,我不知道这样的问题是否已经存在,我尝试过但找不到,所以,如果我道歉。
我试图通过将每个帧发送到客户端,然后在网站上使用Javascript来显示流媒体视频。 (因此,所有这些都可以使用WebSockets运行)。
我在PC上托管Websocket服务器(C#是语言)。因此,我获取了整个屏幕的屏幕截图,并立即将其发送给客户端。
现在,我的问题是:我应该将多个帧(例如3?)存储到一个文件中,然后上传该文件,还是应该像以前一样逐帧发送?我想知道哪一个更快?
谢谢。
他们俩都将上传相同大小的文件,尽管如此,它们将被拆分。理论上,他们应该同时上传-这也取决于带宽。