我读到WebRTC使用中继服务器,如果直接对等连接因为防火墙而无法工作
如果是这种情况,是否有办法进行检查?在建立WebRTC连接时,您可以设置STUN和/或TURN以供web浏览器使用。若您将这两个选项通知web浏览器,web浏览器将首先尝试使用STUN。然后,如果失败,它将尝试使用TURN
“中继服务器”是一个回合服务器
正如我所知,没有标准的方法可以知道一个网络浏览器决定使用哪个选项:晕眩还是转身
另一方面,如果您是TURN服务器的所有者,您可以查看web客户端是否使用它,然后将此信息发送
有人知道什么好的rtpeerconnection教程吗
我想从一个浏览器到另一个浏览器直播网络摄像头。我有websocket从我的服务器到所有客户端的连接,所以这应该是相当容易的-但是我在这个主题上发现的是非常混乱的
我不太明白。我是否可以编写自己的信令服务器,如何确定客户端的可用端口等
简而言之:请求好的链接
是的,我发现了,但没有发现它非常连贯(可能是因为其中没有一个代码示例不包含至少5个无法解释的变量或函数)。回答您的问题-是的,您可以编写自己的信令服务器,例如使用node.js。您可以自
每当我尝试为Windows构建WebRTC时,在运行gclient runhooks时都会出现以下错误:
________ running 'C:\path\to\depot_tools\python276_bin\python.exe src/build
/landmines.py' in 'C:\path\to\webrtc\src\chromium' Please follow the instructions
at http://www.chromium.org/develope
我正在建立一个网站,使用WebRTC共享音频和视频。现在我想访问Android设备上的WebRTC功能,这样我就可以创建一个可以从网站接收音频和视频流的应用程序
我一直在寻找一种允许我这样做的技术,我发现了SkylinkJS
看起来不错,但我想知道一些事情。我可以在SkylinkJS逻辑之上构建一个自定义身份验证系统吗。我的意思是,我想确保与SkylinkJS房间的连接是由在我的平台上经过身份验证的用户发起的
目前,我使用socket.io来实现这一点,但我可以做到,因为我使用的是原始WebRT
浏览器:Chrome
我正在调试一个webRTC应用程序,它在四个前端中的三个都能正常工作!我无法从接收器向呼叫方获取视频。我可以从呼叫者到接收器获取视频和音频,从接收器到呼叫者获取音频。问题是接收器没有触发视频(sdpMid=“video”)ICE候选。在拼命解决这个问题的同时,我在设置pc.remoteDescription之前尝试使用pc.CreateAnswer,它给出了标题中引用的错误
我的问题是要理解这背后的原因。答案SDP将只是基于getUserMedia设置/约束的SDP。那么,
标签: Webrtc
opentoktokboxweb-audio-api
在opentok中,使用OT.initPublisher,您只能将deviceId传递给音频源。有人知道流式传输音频文件的方法吗
例如,我做了以下工作:
navigator.getUserMedia({audio: true, video: false},
function(stream) {
var context = new AudioContext();
var microphone = context.createMediaStreamSource(stream);
我确实使用PeerJ在两个对等点之间建立连接
有没有办法强制使用H264代码而不是VP8
问候更新:
一旦浏览器支持,您可以使用来实现相同的结果
旧答案:
您必须编辑peerjs代码才能更改编解码器
基本上,您必须更新sdp中的视频线,更具体地说,是视频线
视频线看起来像
m=video 60372 UDP/TLS/RTP/SAVPF 96 98 100 101 116 111
数字100 101等对应于对等方支持的各种编解码器,它们由以下行表示:
a=rtpmap:98 VP9/90000
我发现当webrtc使用STUN创建套接字时,STUN返回的端口始终与套接字端口相同。这是偶然的还是固定的?这取决于您使用的NAT类型,一些NAT可能也会转换端口。在NAT术语中称为端口保留。端口号将保留,除非在NAT后面有多台机器访问同一服务时发生冲突 我使用对称nat,它将使用相同的端口?@Y.Thomas-它将使用相同的本地端口,但远程端点将看到不同的端口值,因为nat将其转换为该远程ip的其他端口。成功建立端口映射后,internet发送数据必须通过映射端口发送吗?或者只是创建端口映射,
我想设置asterisk 13,在本地机器上运行ubuntu 16.04以启用WebRTC,我正在firefox上进行测试
我已成功将sipml5客户端连接到asterisk,但在模拟通话时,显示通话正在进行中
http已启用并绑定到端口8088
这是sip.conf:
[web_rtc]
context=default
host=dynamic
secret=abc101
type=friend
transport=udp,ws,wss,tcp
encryption=yes
avpf=yes
以下WebRTC代码在使用Firefox或Chrome时成功,但在使用Microsoft Edge时失败:
socket.on('created', function (room)
{
navigator.mediaDevices.getUserMedia(streamConstraints).then(function (stream)
{
localStream = stream;
localVideo.srcObject = stream
标签: Webrtc
agora.ioagora-web-sdk-ng
是否可以使用Agora WebSDK NG创建音频可视化工具?我正在寻找类似于:
或
感谢您的建议。是的,使用Agora的NG WebSDK在技术上是可行的,因为SDK是使用WebRTC构建的
如果您希望将其添加到本地用户界面,请查看文档,特别是您希望在本地创建音频曲目,以便能够将其传递给可视化工具
或者,如果您想可视化来自远程流的音频,您可以使用用户()并调用以获取音频曲目。@Hermes的回答是正确的。如果您正在寻找一些模板代码进行实验,我建议您从其他任何演示开始或查看。无论采用哪种方式
标签: Webrtc
html5-videohtml5-audiofreeswitchbigbluebutton
我们已经安装了一个引用的COURN服务器。但即使这样,我们也无法在受限制性防火墙保护的大学局域网内访问BBB服务
请参见下图以说明环境。寻求您的建议以解决此问题。我们用头撞这堵墙已经有一段时间了
从你的大学网络,你能在Google Chrome浏览器中打开,检查你是否能在没有任何1007/1020错误的情况下访问音频/视频
如果是,请再次检查您的回合服务器配置,并确保您的BBB服务器可以使用它
否则,请检查您的大学防火墙是否允许TCP端口80和443以及UDP端口16384-32768上的连接。
不是没有改动的
在内部,WebRTC的内部音频/视频管道直接连接到编码器/解码器
PeerConnectionFactory允许您提供视频解码器/编码器工厂,因此您可以在此处短路逻辑,获取编码帧,模拟流,并将其作为中继直接送入其中,创建新的PeerConnection并将这些流设置到其中
音频端比较困难。这里没有编解码器工厂,因此您必须通过修改libwebrtc使那里的逻辑短路
最后一个问题是RTCP终止,以及如何覆盖质量/带宽控制机制,以避免出现“一个出去,他们都出去”的情况
由于libweb
假设一个房间里有50个扬声器。
比如说,像janus这样的服务器会将视频和音频信号组合成一个网格,然后显示并发出一个流(音频和视频)。
对于观众来说,这很好,因为他们只需要下载一个A/V流。
但是演讲者呢
如果我是演讲者,我希望看到与观众相同的网格,我会看到我延迟(这是可以的),也会听到我的声音延迟。这是一个巨大的问题,因为我无法理解自己在说什么
有什么方法可以解决这个问题:
扬声器在讲话时禁用收入音频(不太方便用户使用)
单独发送音频和视频信号-只有将所有音频信号单独发送给客户端时,这才有意义
标签: Webrtc
web-audio-apiweb-frontend
MediaStreamAudioSourceNode在disconnect()和函数demoMemoryLeak()中取消引用后将不会被垃圾收集,这可能会导致内存泄漏
参考:
源(MediaStreamAudioSourceNode)--->at(MediaStreamTrack)--->buffer1(10M阵列缓冲)
是否有正确的方法来释放MediaStreamAudioSourceNode
标题
没有内存泄漏
使用MediaStreamAudioSourceNode的内存泄漏
异步函数
如何确定MediaStream曲目是“屏幕”曲目而不是常规网络摄像头视频曲目?MedaStreamTrack类型对于这两种类型都是“视频”,假设您从getUserMedia()或getDisplayMedia()获取这些流,最好的方法可能是将这些流从何处获取存储在单独的地图中。每条赛道都有一个场地,所以你可以用它作为地图上的关键点
如果是通过webRTC连接获得的,最好是通过数据通道从原始对等方请求该信息
另一种相关的是MediaStreamTrack.label包含它正在显示的设备的名称,其中
基本上,我有一个媒体服务器,我在一个会议中有多个客户端发送一个流并接收多个流(媒体服务器不会将流混合成1:1)。我的WebRTC/Chrome可以在1:1的情况下连接并交换流,但不清楚是否/如何使用WebRTC实现1:N。重申一下,这不是点对点X-N,而是发送一个,接收多个。有什么想法吗?谢谢。您似乎需要webRTC的对等2对等实现。我不确定,但您应该检查这些:
该规范允许在单个RTPeerConnection中接收(和发送)多个流。然而,目前在Chrome(我相信)和Firefox中的实现还
是否可以通过与WebRTC的屏幕共享广播音频?
使用audio:true简单调用getUserMedia,由于权限被拒绝错误而失败。
是否有任何workeround也可用于广播音频?
除了屏幕共享之外,还会实现音频吗
谢谢。请参阅此演示:
捕获多个流,并将其连接到单个对等连接。好的,音频和色度源:屏幕是“不允许的
更新日期:2016年4月21日
现在,您可以在Firefox和Chrome上使用单个getUserMedia请求捕获音频+屏幕
然而,Chrome仅支持音频+选项卡,即您无法捕获全屏
几天前我开始学习webRTC。WebRTC遵循提供/应答模式。所有的交换(元数据、网络信息和媒体流)都遵循这个模型吗?我们是否需要所有交换中的STUN/TURN服务器。第一次从STUN/TURN服务器获取对等方的公共IP后,可以开始对等通信 WebRTC使用信令服务器遵循SIP和SDP协议
所有这些都与RTPeerConnection一起使用。RTPEERCONNECTION通过TURN/STUN服务器启动。晕眩/转身仅用于生成ICE候选。您可以使用webrtc,而无需使用Stunt和Turn,
我正在使用kurento的master git制作一个WebRTC到RTP桥
MediaPipeline pipeline = kurento.createMediaPipeline();
WebRtcEndpoint webRtcEndpoint = new WebRtcEndpoint.Builder(pipeline).build();
HttpGetEndpoint httpEndpoint=new HttpGetEndpoint.Builder(pipeline).build();
我已经用星网和WebRTC实现了多方视频+音频聊天。我没有使用任何第三方cliend SDK来实现它。在这种情况下,一个对等方就像一个中继方(路由器)。因此超级节点执行的步骤是1)获取自己的视频流并通过调用addstream传递给对等方2)在“onaddstream”方法中获取远程视频流,并将其添加到现有对等方连接并发送。一切正常,但由于chrome code.google.com/p/webrtc/issues/detail?id=2192中存在问题,音频无法中继。现在我想推广在windows
问题:
我正在尝试通过“muaz khan”进行webrtc多视频会议,但由于我连接了10个对等方,因此需要占用大量cpu。我的CPU使用率接近200%。同样,在广播的情况下,“muaz khan”可伸缩广播并不那么有效,因为它使用了多层次的概念
问题
1) 有谁能建议一些降低cpu使用率和可伸缩广播的方法吗
2) 媒体服务器技术的任何其他选项
3) 还有谁能告诉我什么开源的“媒体服务器技术”,我试过kurento的,但他们没有多对多的节点&他们不是免费的吧
4) kurento是否提供Andr
我想在我的项目中实现webrtc服务器。我想制作自己的webrtc服务器并将其部署在amazon服务器中。如何实现这一点?WebRTC是一种对等协议,因此不需要服务器
您需要一个信令服务器来进行会话协商。如何实现这一点取决于所使用的技术——客户端:轮询、ajax、WebSocket、stomp等和服务器端
对于STUN/TURN,您可以部署现有服务器或使用RFC从头开始开发自己的服务器。WebRTC是一种对等协议,因此不需要服务器
您需要一个信令服务器来进行会话协商。如何实现这一点取决于所使用的
标签: Webrtc
dat-protocolhyperdrivedat-project
我正试图通过webrtc和signalhub在浏览器中使用hyperdb和swarming。代码非常简单,但是hyperdb replicate存在一些问题,因为hypercore中的sameKey检查导致连接被终止。所以,我在想。。。我没有正确地处理我的发现密钥和id密钥,以便对等方知道它们应该同步。这里是一些示例代码,有点混乱,但相关的是hyperdb初始化和webrtc/signalhub之类的东西(我想)。。。顶部的密钥是另一个对等方的发现密钥:
const crypto = requ
我试图使用gst rtsp服务器代理IP摄像机提供的H264视频流
我正在使用
运行
./test-launch "videotestsrc ! video/x-raw,width=960,height=504 ! timeoverlay text='H.264' valignment=top halignment=left ! x264enc ! rtph264pay name=pay0 pt=96"
工作正常,运行时我有一个很好的测试显示
ffplay rtsp://127.0.0.1:8
标签: Webrtc
twilio-videobrave-browser
当前WebRTC在浏览器上失败,出现“自动播放在此页面上被阻止”错误
此错误并不特别明显:
您可以在启用任何WebRTC的情况下使用浏览器进行测试,例如
我的应用程序用户报告这是一个bug,因为他们的经验是视频没有加载
处理这个问题的正确方法是什么?有很多(仍然有效)的建议。按照建议检查audiocontexts状态(通过注释链接)可能是一种方法
令人惊讶的是,brave做到了这一点,当getUserMedia处于活动状态时,chrome确实允许自动播放
标签: Webrtc
sdpsimplewebrtcsimple-peer
您好,我一直在搜索一个如何在simple peer中使用SDPTTransform功能的示例,但还没有找到任何内容。还有什么方法可以检查mediaStream对象中使用了哪些编解码器。是否仍然可以在SimplePeer中创建自定义sdp选项。该参数必须包含一个返回转换后的sdp的函数。发现此github问题作为示例 我的答案有用吗?是的。谢谢你:)。
目前,我有一个RTSP流来自我的IP摄像机,我当然有IP,如果我尝试在vlc上显示它,一切都很好(rtsp://IP:PORT/channel).
下一步是在我的网站上展示它-能够将其集成为js视频组件,有没有办法将其转换为WebRTC/HTTP?
可能使用vlc(因为我使用的是没有GUI的设备)?
谢谢 您需要某种“协议桥”。幸运的是,RTSP实际上只是WebRTC的一个子集(它们都使用RTP)。您需要的是为您处理ICE、DTL和SRTP
我使用的一个项目就是这样做的。不过还有很多其他的选择
无法安装janus gateway webrtc服务器-Ubuntu(18.04)尝试了官方文档中列出的所有可能性,但出现了错误。是否还有其他方法可以快速安装。
对于移动客户端和媒体服务器之间的WebRTC对等连接,如果媒体服务器具有公共IP且不位于NAT后面,我们是否需要TURN服务器?否。如果一个对等方具有公共IP,则不需要TURN(可能存在出于其他原因强制TURN的安全/策略设置)。谢谢,即使另一个对等方在对称NAT后面,这也是正确的。TURN服务器实际上只是一个哑媒体服务器,它将流量从一个套接字中继到另一个套接字。因此,如果TURN服务器可以连接两个对等服务器,那么媒体服务器也可以。
标签: Webrtc
web-audio-apimediastreammediarecorder-api
我已经使用peer js创建了一个应用程序来启动视频通话。我正在使用mediarecorder Api记录来自调用方的传入流。但是,我需要在录音中同时添加呼叫方和接收方的音频,视频应该只包含呼叫方(传入流)
我试过这个。然而,在记录它的时候,我得到了一个vlc无法读取的文件
我还尝试将本地音频曲目添加到录制流中,但这不会将两个音频曲目合并为一个,并且只录制收入流的音频。我可以通过使用Web audio API来实现这一点。我从两个流中提取音频曲目,并使用音频上下文将它们合并到一个流中
var O
我正在构建一个WebRTC应用程序,用户可以在其中共享他们的相机和屏幕。
当客户端接收到流/曲目时,它需要知道它是摄像机流还是屏幕记录流。
这种区别在发送端很明显,
但是,当轨迹到达接收点时,这种区别就消失了
下面是我的应用程序中的一些示例代码:
//注意,流之间的区别在发送端很明显。
const localWebcamStream=await navigator.mediaDevices.getUserMedia({…});
const screenpapturestream=wait nav
标签: Webrtc
audio-streaminggetusermediamediadevices
我正在开发一个webRTC应用程序,其中包括两个音频播放器,每个播放器应同时将音频输出到不同的音频设备
例如,用户将选择“内部扬声器”作为一个流的输出,选择“外部耳机”作为另一个流的输出
我有在webRTC中使用getUserMedia()为页面选择源和输出的经验:
然而,我找不到一种(甚至是实验性的)方法来让一个网页向不同的设备输出不同的流
有没有办法做到这一点?谢谢大家! 您可以从不同的文档(页面、选项卡、窗口)打开不同的设备。谢谢,@O.Jones-这是一个非常好的观点!这是解决问题的一
我很好奇为什么客户机不能直接连接到运行webrtc服务器的机器上,但可以通过turn服务器来连接。turn和webrtc都在AWS的同一VPC中。可能有很多东西
假设您拥有正确的TURN配置文件,并且注意到两个AWS实例都有公共IP,那么在具有TURN服务器的实例上,您可能没有打开与TURN服务器相关的所有防火墙端口:
或者,可能是DNS问题,而您的对等方不知道您的TURN服务器的域,因此无法访问它
或者,您可能正在尝试通过WebRTC进行连接,但不安全。WebRTC需要安全连接(https)。
标签: Webrtc
file-sharingrtcdatachannel
我是WebRTC的新手。我正在构建一个应用程序,使用户能够查看彼此的视频流以及交换文件。音频/视频部分已实现并工作。问题是我现在需要添加交换文件的功能。我使用下面的代码初始化PeerConnection对象
var connection=\u getConnectionpartnerId;
console.loginite报价
//添加我们的音频/视频流
connection.addStreamstream;
//发送连接报价
connection.createOfferfunction de
网络开发者在网页上设置视频通话是免费的吗?
为什么Twilio的视频通话定价为每分钟25美分,
对于一个小家伙来说,在网络托管服务器上管理视频通话会不会太贵
任何深入WebRTC的人有什么建议吗?WebRTC是一种放在浏览器中的技术。它需要后端基础设施来支持它——具体来说,包括STUN和TURN服务器以及信令服务器
这归结为一个事实,你为WebRTC付费——就像你为在服务器上托管你的网站付费一样。价格更高,因为媒体中继所需的带宽也更高
要了解更多关于WebRTC及其工作原理的信息(以及为什么会有
标签: Webrtc
getusermediawebcam-capture
我正在尝试测试WebRTC,希望显示我自己的流以及对等方的流。我目前有一个简单的垫片来获取相机的流,并将其导入视频元素,但是帧速率非常低。关于这一点的罕见之处在于,我可以尝试网站上的例子,它们工作得完美无缺。。视频很流畅,没有问题。我走到控制台,我的代码与他们的相似。。会发生什么?我试图创建一个和运行括号内的代码,但它仍然表现糟糕
video = document.getElementById('usr-cam');
navigator.mediaDevices.getUserMedia(
标签: Webrtc
restcommsipmlmobicents-sip-servlets
我让Tomcat在HTTPS上运行。
我已经尝试将SIPML5 WebSocket应用程序部署到我的tomcat中。
当我尝试使用ws连接Sip servlet时:
ws://192.168.X.Y:5082
Sip Servlets配置如下所示:
<Connector port="5082"
ipAddress = "192.168.X.Y"
protocol="org.mobicents.servlet.sip.startup.SipProtoco
标签: Webrtc
webmvp8adaptive-bitratevp9
我正在使用WebRTC开发我的一个应用程序。
WebRTC是否本机支持视频数据包的自适应比特率流式传输尚不清楚?VP8/VP9是否支持自适应比特率编码?比特率控制器WebRTC是否实现ABR
有人能再多解释一下吗?我没有发现任何确凿的证据表明WebRTC本机支持视频自适应流。根据本网站上的WebRTC文档:我发现:
从浏览器请求音频和视频时,请小心
注意溪流的大小和质量。而硬件
可能能够捕获高清质量流、CPU和带宽
必须能够跟上!当前的WebRTC实施使用Opus和
VP8编解码器:
Opus
根据我对上一个问题的理解:
从webrtcendpoint.conf.ini配置的TURN服务器仅用于交换ice候选者。此外,我们只能在webrtcendpoint.conf.ini中指定一个TURN服务器,因为我观察到,如果我在webrtcendpoint.conf.ini中提供2个或更多TRUN服务器,Kurento媒体服务器服务无法启动,这是否正确
还有什么方法可以验证Kurento媒体服务器和两个对等服务器之间使用的是哪台STUN/TURN服务器
我们在conferenceroom.js
经过几天的pjsip测试,我终于了解了它的工作原理。我希望它能帮助我在网站上打WebRTC电话
情况:
我可以拨打和接听带有星号的普通电话
对于WebRTC,我尝试了sipml5、Sip.js、JsSIP(目前正在使用)
sipml5连接到我的服务器(已“连接”)
以下是pjsip“webrtc”配置(目前):
当我打电话时会出现问题:
[Sep 1 17:50:37] ERROR[7760] pjproject: sip_endpoint.c Error processin
我是webrtc的新手。我需要创建webrtc的新实现。我从Github获得了apprtc的源代码。它在我本地的机器上运行良好
但在apprtc中,它最多只能支持2个客户端(只有一个客户端可以加入到单个房间)。我需要修改apprtc以支持2个以上的客户端。我想将多个客户加入到一个房间。有可能吗?否则,是否有其他方法使用webrtc?试试看,它允许通过ajax请求进行一对多通信,并且不需要额外的库。我需要webrtc实现
我和peerJS一起工作
在局域网中一切正常,但如果我使用手机连接的turn服务器,流连接就会失败
mediaStream在peerJS连接中传递。在('stream',(stream)=>{。。
但在此之后崩溃,问题似乎与眩晕/转身协商有关,控制台记录如下:
.callConnection.on('stream')... <-- I receive the stream
...
PeerJS: Set remoteDescription: ANSWER for: PEER_ID
P
我在使用peerjs的教程之后制作了一个应用程序。一切似乎都很好,除了当我使用peerjs连接视频通话时。我已经制作了我自己的peerjs服务器,我正在本地主机上运行(现在正在进行测试)。以下是对等服务器的代码:
const express = require('express');
const path = require('path');
const http = require('http');
const cors = require('cors');
const errorhandle
标签: Webrtc
progressive-web-apps
我正在构建一个应用程序,它将通过WebRTC与我办公室网络中的其他设备进行通信。对于网络中的移动电话,我想使用PWA来完成这项工作
PWA是否可以运行通过WebRTC与其他设备进行通信的后台服务?从技术上讲,您可以在服务工作者中连接WebRTC,但它们可以使连接不会持续超过几分钟。是的,适用于Android,但是getUserMedia不能与PWA一起工作,我的意思是,在独立模式下,应该能够。“你有没有试过不起作用的东西?”马蒂亚斯,谢谢。不,不是真的,我们对PWAs或WebRTC(来自服务器客
我希望你们都会好起来
我是webRTC的初学者,如果我的问题感觉像是一个noob问题,我很抱歉,但我想知道是否有合适的方法来关闭同行之间的联系,特别是使用simple-peer.js,期待您的精彩回复
这是我的示例代码
if (navigator.getUserMedia) {
navigator.getUserMedia({ audio: { echoCancellation: true }, video: true }, stream => {
我正在创建一个webRTC视频聊天,在从firefox发起呼叫时显示呼叫方所有活动成员,并且接收方正在使用chrome。此错误显示为“未捕获(承诺中)DomeException:未能在“RTPeerConnection”上执行“addIceCandidate”:处理ICE候选错误”。当从firefox发起呼叫并且接收方使用firefox时,我会收到两个错误Invalidstate:当没有远程SDP且ICE失败时,无法添加ICE候选,请添加一个STUN,有关详细信息,请参阅about:webrtc
我正在尝试使用webRTC实现切换视频功能。请参阅以下代码:
<video id="remote" autoPlay></video>
<button onclick="toggleVideo()">Toggle video</button>
这会关闭firefox中的视频和网络摄像头指示灯,但不会关闭chrome中的视频和网络摄像头指示灯。Chrome只会关闭视频
根据MDN文件
如果MediaStreamTrack表示来自摄像机的视频输入,通
我花了很多时间试图使Coturn在同时具有Public(Public_ID_ADDRESS)和Private(Private_ID_ADDRESS)IP地址的vm上工作。下面的工作,可能有人会发现它的帮助。
当然,用IP地址替换公共ID地址和私有ID地址
1) 我通过在/www/js/main.js中添加iceTransportPolicy:“relay”来阻止点对点测试回合服务器,请参见下文
2) 我使用443而不是默认的3478端口,用于使用自定义TURN coturn服务器的TURN通信
我在MDN中了解到WebRTC,并尝试打开对等连接。我决定在一个页面中同时打开本地和远程连接,并编写了以下代码:
const配置={ICEServer:[
{URL:'stun:stun.l.google.com:19302'},
{url:'stun:stun1.l.google.com:19302'},
]};
const localConnection=新的RTPeerConnection(配置);
const remoteConnection=新的RTPeerConnection(配置)
1 2 3 4 5 6 ...
下一页 最后一页 共 17 页