Video streaming TokBox iOS视频会议应用程序性能

我一直在用TalkBox平台构建视频会议应用程序。我的第一阶段是检查框架的性能。我的要求是6个用户的视频电话会议 我用TokBox中的参考应用程序多方通话示例构建了该应用程序。我使用了完全相同的类和函数。我面临电话会议的质量和性能问题。该应用程序运行平稳,最多有3名用户。一旦用户4、5、6订阅,视频就不再流畅 我想这与流式传输的视频质量有关。该应用程序的测试速度超过100 MB/s,因此连接速度应该不会有问题 问题是fps,即流化的维度。我已尝试在TBExampleVideoCapture类中更

Video streaming 视频处理-离线与在线

我正在构建一个类似TikTok的社交媒体应用程序。 目前,我允许用户添加音乐、合并视频。在未来,我想给的可能性,增加过滤器等 我在iOS上建立了一个概念,整个视频处理在手机上完成,然后编码的视频被上传到服务器上。 目前,我已经开始开发Android版本。然而,由于碎片化,Android上的编码是痛苦的 我正在考虑改变策略,将原始视频文件发送到服务器,然后进行视频处理/编码 您是否曾经使用过类似的应用程序,或者您知道TikTok等应用程序是如何解决这一问题的吗?移动设备上视频处理和操作的主要问题是

Video streaming 不使用flash的实时视频流?

有没有什么方法可以在不使用Flash或Silverlight的情况下实现类似的功能 不,尚未实施但非常好的解决方案不是一个有效的答案。;-) 如果我们不考虑Flash和Silverlight,我们想到的唯一合理的事情就是Java小程序(请,请不要这样做),自定义浏览器插件(需要大量工作,谁会想安装一个插件来使用Chatroulette…)仅仅使用元素,依靠用户可能安装或可能未安装的任何媒体播放器(这不会让您很好地控制任何东西) 总而言之,我不认为不使用上面提到的、分布相当广泛的插件是可行的。@a

Video streaming 将视频转换为mjpeg文件格式

我有一个java程序来流式处理mjpeg文件。我在任何地方都找不到mjpeg文件。有人能帮助我如何获取该文件。或者告诉我如何将文件转换为mjpeg格式吗?我曾尝试使用total video converter将avi文件转换为mjpeg,但没有成功。像这样使用ffmpeg: ffmpeg -i input.mpg -vcodec mjpeg -qscale 1 -an output.avi ffmpeg-i input.mpg-vcodec mjpeg-qscale 1-an output.av

Video streaming 将实时视频发布到CloudFront流媒体

我正在研究在webapp(多个用户创建的流)中传输实时视频的最佳方式。到目前为止,使用AWS CloudFront将视频分发到flash客户端似乎相当简单,但我还没有找到多少关于发布视频的文档 理想情况下,发布界面将类似于JustinTV或Ustream,一个简单的Flash应用程序将从网络摄像头捕获视频并将其流到某处。有人知道CloudFront是否可以做到这一点吗?如果有的话,有人有一些文档或教程的链接吗?亚马逊自己的文档似乎只涵盖已经存在的视频文件流 谢谢从今天起,Cloudfront似乎

Video streaming 有没有关于如何使显卡不可见的代码示例?

有没有关于如何使显卡不可见的代码示例?根据我的理解,这应该在内核级别上完成。我想做的是,我有四个使用PCI Express x8/x8/x8/x8的物理GPU。我可以有两个配置为x16/x16的物理卡。我想做的是以编程方式将四个卡的配置切换到两个卡,然后返回到使用x8到x16,返回到x8模式。非常感谢你的帮助 Roman这取决于您的视频卡驱动程序。您必须向特定视频卡的制造商询问支持此功能的驱动程序中的API或功能;它也不是Windows或Linux内核的正常部分

Video streaming H264流的高度不正确[8像素更高]

我使用RTSP协议从ip摄像机获取h264流。我根据答案解析h264seq_参数_数据[http://stackoverflow.com/questions/6394874/fetching-the-dimensions-of-a-h264video-stream],对于某些ip摄像头,高度值比实际高度大8个像素 为什么会发生?如何修复它 PS: 在我的搜索中,我发现。。。也许这是我的问题 “MPEG2和MPEG4要求帧大小为16像素的倍数 因为每个MPEG2视频编码的宏块都是16x16像素 a

Video streaming 如何在Wowza中发布rtmp流?

我想从中发布一个rtmp流rtmp://someothersite.com/live/ 并将m3u8流传送到ios和android设备 我决定使用Wowza,并在本文后面做了一些设置 有: Publishing the stream (RTMP based encoder) Enter the Server URL and Stream Name information below and click the Publish or Start button on the encoder: S

Video streaming MJPG流媒体,带有覆盆子Pi和网络摄像头

所以我需要一个使用树莓圆周率的网络摄像机,并遵循了教程。该设备正在为测试流页面提供服务,但是所有应该嵌入流的地方都是空白的。我使用的是PS3 eyetoy相机和Raspbian哮喘病发行版。这是我在启动服务器时收到的日志: MJPG Streamer Version: svn rev: 3:165 i: Using V4L2 device.: /dev/video0 i: Desired Resolution: 640 x 480 i: Frames Per Second.: 5 i:

Video streaming 从我的主页服务器打开图形视频,但不在facebook上播放

1)从我的主页服务器打开图形视频,但不在facebook上播放 我没有从我的网站www.thetruth agreement.com上获得在Facebook上工作的Open Graph视频 当我用files2.flipish.com中的代码交换一行代码时,它在Safari、Chrome和Firefox中运行得非常好: [工作正常-都在files2.flipish.com上] 我将完全相同的视频文件复制到我的站点,并将这一行代码更改为引用我的jwplayer和服务器上的同一视频。其他一切都是一样

Video streaming GStreamer是否也实现通信协议?

我是gstreamer的新手,我需要在我的项目中使用它,使用树莓pi将视频流从机器人传输到固定的pc。是否可以使用gstreamer实现通信协议,如握手等。如果可以,请您也解释一下如何使用或使用链接将非常好:D.非常感谢。不幸的是,gstreamer没有任何内置信令层或协议。Gstreamer handels仅用于媒体传输音频和视频。 有一些开源的信令栈项目使用gstreamer作为媒体层,但我相信你会发现它是如此复杂和混乱,以至于你会忘记使用它或开发它 最后,我建议您使用套接字编程来设计自己的

Video streaming Opentok发行商比特率取决于订户';比特率

以下是我的通话前测试结果: 预期通话质量 1.7 / 5.0 支持的决议: 每秒30帧时为1280x720。 0%的视频数据包丢失。 视频比特率:655kbps 我正在播放200kbps的视频。这应该能够流没有任何问题。 问题是,当我加入这个频道的订户时,发布者的比特率似乎下降了(与观众比特率的平均值相匹配)。当然,降低通话中每个人的视频质量。会话是路由的,据我所知,发布者的比特率应该是恒定的,opentok服务器应该以适当的比特率向观众(订阅者)传输视频,而不是降低整个会话的质量。 下面是op

Video streaming 在WebRTC视频播放器和HLS视频播放器之间切换

我正在构建一个Web应用程序,它将执行以下任务 显示实时视图-使用WebRTC媒体频道 显示视频点播(VOD)-用户HLS 用户有一个按钮,用于从直播切换到回放,反之亦然。WebRTC和HLS使用不同的库来呈现媒体 问题: 在同一页面上从实时播放切换是否可行?如果可行,是否需要重新加载页面 可以使用两个不同的播放器同时播放视频吗 快速的回答是,您可以在同一页面上有两个不同的播放器,并且您应该能够在不加载页面的情况下控制每个播放器,例如启动和停止播放 不过,如果这两种流媒体技术对您的设计也有帮助的

Video streaming 你知道什么视频编解码器用于信使吗?

我想知道MSN、雅虎、QQ或任何其他XMPP信使使用的视频编解码器 谢谢您的帮助。对于视频编解码器,它是这样的: Skype: 雅虎!Messenger:,也就是说,只有工字架 谷歌对话: MSN Messenger: iChat: 对于视频编解码器,它是这样的: Skype: 雅虎!Messenger:,也就是说,只有工字架 谷歌对话: MSN Messenger: iChat: 编解码器?什么意思?协议?编解码器?什么意思?协议

Video streaming 视频流HDS Flussonic Erlyvideo

是否有人使用earlyvideo flussonic设置伪流mp4 我需要示例配置行,smth。比如: {文件,等等…} 和manifest.f4m+目标文件+段(链接到下载),以及所有这些文件的位置 Debian挤压、nginx、flussonic(正确运行) 我将非常感谢您的帮助。{http,8080}。 {文件,“vod”,“/var/movies”}。 {root,“wwwroot”} /etc/init.d/flussonic启动 然后转到http://localhost:8080/#

Video streaming 在html中嵌入.m3u8文件

我有这个文件: http://50.7.191.250:8080/hls/main/tvp2.m3u8?token=ee4091dc1db99d678bcc70a1460d724a19f9becf 我正在尝试将其嵌入到html页面中。有人知道我需要什么工具才能在线观看此视频以及如何观看吗?看起来您正在尝试播放hls流。我会尝试使用flowplayer。检查:例如。可能重复的

Video streaming WebRTC是否会使用恒定的帧速率来捕获视频帧

WebRTC是否会使用恒定的帧速率来捕获H264流?我只能找到最大帧速率配置。否,我认为它是可变的,可以使用WebRTC的getStatsAPI查看任何点的精确帧速率。@mido22这是渲染的帧速率,但我认为捕获帧速率不是可变的,除非你初始化了捕获器。@Kevin,我的坏蛋,把它当作渲染帧速率,捕获帧速率是否在控制之下,虽然chrome在getUserMediaconstraints@mido22是的,这很奇怪,我知道在iOS中你可以使用约束来设置它,它可能有效,也可能无效。。。。。Chrome

Video streaming 如何在飞行中打包HLS和MPEG-DASH?

我想创建视频点播流。我想通过hls和mpeg dash传输视频。 我使用的是H.264/AAC。但我不想在hls和mpeg dash容器中存储两次视频。是否可以将视频存储在临时容器(如mpeg ts或mp4)中,然后使用hls和mpeg dash进行流式视频点播?或者可以单独存储视频h.264和音频aac,然后在hls或mpeg dash中动态打包视频吗? 我不会使用实时流媒体。您提到的过程称为“转换”,它意味着在容器之间进行动态重新包装。现代媒体服务器允许这样做,所以您只需将MP4文件放在磁盘

Video streaming 修复HLS流的音频丢失

我有一个HLS流,它在Android和iOS上退出,但在网络浏览器(flash)上运行良好 编码器:Wirecast Pro 5.0.3 编码器设置:输出格式-(视频)闪存,h.264 480x270 24fps,365 kbps,每48个关键帧(音频)AAC单声道96kbps 44.1hz 流地址: 症状:在iOS/Android系统中,首先音频中断,视频继续播放。然后视频可能会退出。最终情况会变得更糟 我的尝试:我降低了编码器的比特率,升级了硬件。我已经做了速度测试和ping测试来验证带宽不

Video streaming 如何用Gatling模拟媒体流

因此,在我的模拟中,我需要复制一个包含媒体播放器的页面,并从同一后端流式传输视频 使用Gatling的Get请求,它将一次下载整个视频,而不是像在浏览器中那样只下载部分内容 有没有一种方法可以控制或调整下载流的速度,使其不会一次下载整个视频,而是通过浏览器中发生的部分内容进行下载?您所描述的是渐进式下载或伪流式下载。这与通过流协议(如HLS)实现的流不同 渐进式下载使用 我还没有使用,但我看到它支持设置HTTP请求。应该可以设置适当的范围标题。检查第一个链接以获取示例 如果有效,您将看到206部

Video streaming 在网站esp32 cam中实现视频流

我想用ESP32摄像头显示实时视频流,并且在同一个网站上还有一些其他控件的按钮。到目前为止,我已经能够显示9个工作按钮,但我找不到任何关于如何同时显示视频流的内容。如果视频流在一个单独的浏览器选项卡中工作,它也会对我起作用。在这里,我尝试使用Rui Santos的代码进行视频流 并结合我的工作代码建立一个网站。代码没有抛出任何错误,但它也只显示视频流,没有我的网站。任何关于如何以不同方式进行的帮助或提示都将不胜感激 #include "esp_camera.h" #inclu

Video streaming 什么';这种可以流式播放电视的应用程序的原理是什么?

他们的一款产品叫“吸引我”很多 有人知道它是如何实现的吗?它需要什么设备才能工作?来自网站: 它包括可安装在个人计算机上的服务器应用程序组件和可安装在S60第三版手机上的客户端应用程序(mobile viewer)。服务器连接到电视调谐器硬件,并提供对流媒体处理的完全控制。您可以观看家中的任何电视频道或外部视频源,例如DVD播放机 看来你需要一台带有电视调谐器卡的电脑 来自计算机的视频通过互联网通过at Live2电话传输到您的手机 计算机上的服务器应用程序组件允许您从手机更改电视调谐器上的频道

Video streaming 如何在Akamai HD上读取原始文件?

我需要将Akamai HD服务器上视频的Flash player转换为HTML 5版本。但我过去没有与Akamai合作,因此我在Akamai工作时完全是新手,开发时间有限。 视频已经是MP4格式(MP4容器,H264视频)。但它作为FLV容器访问(它在Akamai自动转码)。URL看起来像。 我访问原始文件的第一步是什么(我认为有一些RESTAPI)? 除了令牌(与访问FLV容器不同),我还需要哪些额外的访问要求? 感谢您耐心地回答我的新手问题。为了访问原始文件,您需要创建另一个配置(例如渐进式

Video streaming QVC是如何流式传输的';s频道到它的网站?

我有一个关于如何将电视流到网站的一般知识。一家购物频道问我,是否有可能像QVC那样将直播频道的订阅源集成到他们的网站上 他们目前正在使用Magento作为平台,但我不确定QVC使用什么 我想知道是否有人对此有任何想法或想法,请 这里是我所指内容的链接。我不确定这是否是一条实时流 他们可能使用Akamai或Limelight等CDN服务。@Barmar感谢您的回复。。。您能否提供指向这些服务的链接,以便我可以进一步调查?请访问www.akamai.com、www.limelight.com感谢您提

Video streaming 从PCAP重放RTSP视频流

我有一个PCAP文件,其中包含客户端从RTSP视频流接收到的所有网络流量。使用Wireshark捕获流量,并使用SDP文件和VLC播放器执行回放 是否可以使用PCAP文件再次复制视频?我想可能只是提取RTP多媒体流量并替换目标IP和端口就可以了,我错了吗?任何帮助都将不胜感激 提前感谢。理论上,重播此流量相当容易。您将无法模拟软件和相机之间的双向通信,但您可以轻松地从相机恢复视频 也许ffmpeg能帮助你。我已经为flussonic编写了一个分析记录流量的简单工具。感谢您的快速响应!事实上你是对

Video streaming WEBRTC——在通信过程中改变视频分辨率

我知道我可以在初始化状态下定义视频流分辨率: var video_constraints = { mandatory: { maxHeight: 480, maxWidth: 640 }, optional: [] }; navigator.getUserMedia({ audio: false, video: video_constraints }, onsuccess); 我想知道在通信过程中,有没有办法改变视频流的分辨率,即初始化后? 在代码中有

Video streaming 使用SHVC视频编码器

我正在尝试使用参考软件生成SHVC视频流。存储库有源文件,因此我能够编译和生成可执行文件。现在的问题是我必须传递给编码器的参数 参考软件随附的文档包含使用编码器的快速入门指南,其中提到要运行的示例命令: ./targetBitrates.sh -q 22 -o "~/myOutputDirectory/" -ci ldHE BQSquare_416x240_60 -tb "5000 34241 6541" -ca '-e ~/bin/TAppEncoder.exe -cd ~/cfg/' 虽然

Video streaming 如何在阿里巴巴VOD服务上上传单个视频

在过去的几个月里,我一直致力于阿里巴巴视频点播(Video-on-Demand)和媒体处理服务,在将视频上传到控制台时遇到了这个问题。我尝试了很多次上传视频,但每次都失败了 我没有发现这个问题,也没有从任何地方得到任何解决方案。这是在这里发布此问题的唯一关注点 此外,我和我的同事都试图与支持团队建立联系,但仍然没有得到任何充分的答复 我从遥远的印度访问中国的云服务站,这就是我面临这个问题的原因吗 除此之外,另一个问题是服务器宕机,我们注意到,大多数时间无法通过云访问资源,包括我们自己的托管网站本

Video streaming 如何在VIMEO视频中嵌入水印或文本

我们是一个非政府组织,我们定期制作一些视频内容,用于通过Vimeo传输。我想把我们的信息添加到整个视频中,当一个人全屏播放时 我找不到任何可以在底部或顶部运行消息的API,也找不到可以在全屏视图下运行消息的API 我有特价订阅费 谢谢 菲尔你有什么理由不把它烧录到视频中,让它一直存在吗?字幕(例如)可以由用户打开/关闭,因此不能保证它会被看到?您可以使用ffmpeg之类的工具来刻录文本(drawtext),但如果您想要动画等,则可能更容易使用编辑软件。我正在查找的是能够识别最初通过我们的网站/播

Video streaming 如何中继h.264流?

我有2台服务器,服务器2可以从服务器1接收h.264流。我需要我的iPad可以播放h.264流,我的iPad和server2在同一个局域网中,但无法连接到server1,所以我需要server2将h.264流中继到我的iPad,谁有好的解决方案?谢谢 你的问题相当模糊 如果您是通过HLS进行播放,则可以在server2上安装HTTP代理 Apache甚至有一个代理模块,可以让你在server1上显示一个URL,就好像它是由server2托管的一样,而不必将iPad配置为使用server2作为代理

Video streaming 使用VLC对多个信道进行流传输

我有一个DVB-T棒,我可以使用VLC传输通道,然后在局域网上的另一台计算机上访问它。现在我希望我的VLC(在服务器上)可以使用同一个DVB-T棒在服务器的不同端口上传输不同的频道。在客户端,当用户更改端口号时,他们将能够访问不同的通道。我曾多次尝试实现此功能(通过运行多个VLC实例并更改服务器上的频率和端口号),但它不允许我使用一个DVB棒同时运行两个VLC。请指导我如何实现此功能?要同时查看流,您需要尽可能多的接收器。我知道有些机顶盒有两个接收器,所以你们可以在图片中观看两个流,或者在观看另

Video streaming 如何将视频在线广播到我的网站?

我想制作一个系统,在特定时间以实时流的形式将视频上传到我的网站 我想知道什么是最好的服务器,以及是否有这项服务的提供商。很简单,您可以使用该功能,只需在您的网站上嵌入YouTube播放器对象(Iframe)。我相信你可以让YT编码器默认为某种预览视频或倒计时,直到实时流准备好

Video streaming 有没有办法从浏览器中选择输出视频设备?

我有一个使用OpenTok发布的实时流媒体视频。我想允许用户选择一个设备来显示通过WebRTC发布的视频 有没有办法在浏览器中选择视频输出设备?通常,没有。浏览器会在页面上显示视频。你可以选择,但我想仅此而已 这就是说,Chrome中有一种类似于“网络播放”的功能,我想可能是Firefox操作系统

Video streaming 运行ARDRONE图像流的Bag文件-需要

我是新手。我正在制作来自ARDRONE的视频源,但我无法播放视频 我是否必须更改publisher和subscriber中的主题才能播放视频 有人提到,我必须使用包文件流 我的发布服务器和订阅服务器节点如下所示: def __init__(self): self.image_pub = rospy.Publisher("image_topic_2",Image,queue_size=10) self.bridge = CvBridge() self.image_

Video streaming 播放存储在HTML5云平台上的视频

我有一个存储在谷歌云存储上的视频,我通过向具有存储对象查看器角色的allUsers添加权限,公开了这个存储桶 我使用项目的URL作为HTML5视频标签的源。如果Im登录到Chrome,视频播放效果很好,这是有意义的,但在其他用户的设备上没有。 只需将用户重定向到文件URL,每个人都可以播放视频。问题是页面不是我的应用程序的一部分,因此我无法按照自己的想法设计页面 在通过HTML5视频标签公开访问我的视频时,我遗漏了哪些步骤 /*JS/REACT*/ <video width="320" h

Video streaming 用于构建视频会议应用程序的视频API

我将在未来六个月内构建一个应用程序,它将作为双向视频会议系统运行,并来回共享一些其他数据。我可能会使用一些相对昂贵的USB网络摄像头,而且我知道USB视频类设备标准,这似乎是一个方向 现在,我可以用什么来编程来反对这个(或其他方向)?操作系统并没有那个么重要,因为它并没有被决定(将选择适合整体需求),语言也并没有那个么重要。网络将为VPN,最坏情况为256kbps对称。理想情况下,它也可以处理编码和压缩,但基本上我只是在寻找某种开始研究的起点(到目前为止,我刚刚找到了TAPI和H.323,不确定

Video streaming Flash视频流-搜索到帧&;慢/快动作

我正在从事一个项目,其中一个FLV流到一个播放器-播放器需要能够寻求精确的帧数和暂停他们 最终目标是实现可变播放速度-玩家将进入一帧,暂停,然后进入下一帧,暂停,等等。(如果要求倒带,也可以转到前一帧)-仅适用于电影的一部分(例如,当用户选择“慢速mo”时) 目前,RTMP用于为flash视频内容提供服务 是否可以搜索带有flash视频文件的任何帧,或仅搜索关键帧 是否可以通过RTMP请求电影的一部分,并在本地将内容分解为帧,并在内存中按帧存储图像,覆盖视频窗口并逐帧显示内容 如有任何上述建议,

Video streaming XBOX支持的流媒体协议

1) XBOX 360支持哪种流媒体协议 2) 在XBOX 360上可以播放什么样的视频格式 3) XBOX 360是否支持H264和rtsp 我想开发一些能够在XBOX 360平台上支持视频流的应用程序。您的第一个障碍是在实际平台上获得该应用程序。除了与微软签订直接合同之外,你唯一的选择就是Indie/XNA平台。XNA游戏无法连接到internet。所以忘了那个选项吧 如果你成功地获得了一个开发工具包并与微软签订了合同,你将看到h.264、wmv、avi甚至divx作为可能的选择。可能有更多

Video streaming LibJitsi:视频播放

我正在使用libjitsi创建一个应用程序,作为发送和接收媒体任务的一部分。我无法理解如何播放接收到的视频流。我尝试了AVTransmit2和AVReceive2的示例代码,但只播放音频! 以前在其他论坛上也有人问过类似的问题,有人暗示要从JITSIAPI及其源代码中得到提示。我也在尝试,但这需要很多时间。 有没有人对Jitsi/libjitsi API或关于如何从rtp流显示视频等基本操作的适当文档有清晰的了解?我找到了如何播放视频的方法。如果您查看API,就会发现有一个Swing组件包(or

Video streaming MPEG-DASH的延迟是多少?

大家都知道,Flash很可能会被HTML5完全取代,我们不能再使用RTMP了。出于这个原因,我正在研究MPEG-DASH,但它似乎有很高的延迟?我用wowza直播引擎尝试了MPEG-DASH,我得到了50秒的延迟,这是完全不能接受的。我需要

Video streaming 连接多个HLS主播放列表

仪表盘清单提供了“时段”的概念,将多个剪辑(每个剪辑都有自己的轨迹信息)连接在一个清单中 有没有类似的功能可以将多个主播放列表文件连接到一种“主播放列表”播放列表文件中?简短回答:没有,不是在主播放列表级别 我想最接近HLS中MPEG-DASH周期的是不连续序列。您必须连接不同的播放列表并添加一个EXT-X-intercontinuation 例如: 第一个剪辑的变体: #EXTM3U #EXT-X-TARGETDURATION:10 #EXT-X-VERSION:3 #EXTINF:10,

Video streaming 我可以播放bundle提供的.mpg/.mp4文件;但不是远程URL。救济

我试图通过它的URL播放视频;i、 例如,视频流。 以下代码在捆绑包中的url为本地url时起作用: 但它不适用于远程URL。因此,我尝试了以下方法: 但我总是得到以下信息: 我假设在播放之前必须等待.mpg加载。 做这件事的首选方法是什么?这对我很有用 let playerVC = AVPlayerViewController() let url = NSURL(string: "http://urltofile")! let player = AVPlayer(URL: url

Video streaming 带有ac3音频的HLS流在chromecast上不工作

Chromecast不传输具有ac3音频的视频。只有具有aac编解码器的流才能工作。在使用hls时,是否有办法在chromecast上实现ac3音频流支持? 对样品HLS流进行了测试 AC3 AAC 不可以。Chromecast无法解码ac3 我检查了链接。它说它支持AC3 passthroughCorrect。不解码地通过。因此,chromecast插入的任何东西都必须支持ac3解码。大多数电视都没有。谢谢!。我想我们现在得和AAC凑合了。

Video streaming 使用WebRTC时,是否值得将H.264转码为VP8?

您好,我目前正在构建一个实时流媒体解决方案,该解决方案通过RTSP接收H.264编码的视频,将其转换为WebRTC,然后将其发送到HTML5浏览器。在WebRTC上支持H.264,几乎所有浏览器都支持H.264解码,所以我认为不需要任何转码。然而,我尝试做的许多实现似乎都涉及到将H.264代码转换为VP8,我想知道为什么这是必要的。这样做有什么好处?还有,我可以查看任何统计数据来准确计算由于这种转码会增加多少延迟吗?除非您的客户端只支持VP8,否则转码到VP8没有任何价值。 如果你转码,你会得到

Video streaming Ant媒体服务器仪表板值消失

我在服务器上使用Ant Media Server软件 经过一段时间(可能1-2天),Ant Media Server Dashboard将显示在此图像中: 这是已知事实吗?Web应用程序似乎未加载 启动时,它会尝试打开web应用程序,如果未成功,则会在终端中显示原因。请跟着它 可能的原因是无法初始化bean或XML文件中的设置不正确

Video streaming 如何通过媒体基金会使用英特尔QuasSyc进行解码?

使用Microsoft H.264 MFT的方法是什么?有一个用于Quicksync的MFT,但仅用于编码 Microsoft H.264 MFT上的标志是同步和软件。我可以使用一个D3D设备,并使用IMFVIEWSAMPLAULACTRORACEX进行一定数量的视频加速,但我想知道是否有更好的方式使用英特尔快速同步通过媒体基金会。 是用于编码。< /P> 英特尔快速同步视频H.264编码器MFT也是一个编码器对象 如果你正在寻找硬件辅助解码器,媒体基础API提供了可以通过DXVA2 API使用

Video streaming WDTV Live无法从Windows media server打开mkv文件

几天前我重新安装了Win-7(从32位改为64位),现在我的mkv文件出现了一个奇怪的问题 在更新之前,我使用WDTV Live player从PC上传输视频,一切都完美无瑕。现在播放器无法通过DLNA流从PC打开mkv文件。其他格式仍然可以播放。如果将相同的mkv复制到flashdrive,则可以在PC和WDTV上正常播放。和Windows升级之前在WDTV上播放的文件相同。因此,问题不在于损坏的mkv或网络通信——电脑上安装的编解码器一定有问题 我使用的是K-Lite编解码器包,但升级之前的

Video streaming 使用gstreamer将视频文件从服务器传输到客户端时出错

我正在尝试传输视频并在客户端PC上播放。 管道(服务器端): 很好。 但是现在,我需要从服务器传输一个视频文件,而不是videotestsrc。这是管道: gst-launch filesrc location=movie.mp4 ! ffenc_mpeg4 ! rtpmp4vpay ! udpsink host=192.168.1.16 port=5000 我得到了这个错误: Setting pipeline to PAUSED ... Pipeline is PREROLLING ...

Video streaming 带分段的openRTSP录制

我有一个带RTSP流媒体的IP摄像头。我想用我的树莓皮做录音机。这个想法是: Pi正在启动 开机后,Pi应自动开始记录流并用h.264编解码器保存 当文件达到100MB或1小时时,Pi开始将其记录到新文件中 但我不知道怎么做 我已尝试使用命令: openRTSP rtsp://user:password@192.168.1.108:554/cam/realmonitor -w 1280 -h 720 -f 15 -P 3600 -i /home/pi/nagrania/MyVdeoFFmpe

Video streaming Windows 10物联网核心usb网络摄像头流媒体至浏览器

是否可以将视频和音频从usb摄像头(RPI3)传输到RPi托管的网页,以便使用浏览器在android平板电脑上查看。类似于将Blinky服务器与Windows 10 iot core的USB网络摄像头示例相结合?我完全不熟悉RPi和编程,如何开始使用它?RPI3和Windows 10 iot core可以从USB网络摄像头播放视频,还可以托管一个web服务器。你可以在浏览器中播放。唯一需要解决的一件事是如何将流发送到网页并呈现它。你有没有让它工作过?我想用最新的IoT 10试试

  1    2   3   4   5   6  ... 下一页 最后一页 共 7 页