草庐IT

javascript - 使用 WebRTC 在浏览器之间传输 JSON

当我最初听说WebRTC时,我对它的前景感到很兴奋。它听起来像websockets但没有服务器。不幸的是,我能找到的所有教程都强调了WebRTC的视频和音频方面。我找不到任何关于在浏览器之间发送文本/数据/JSON的信息。你能帮我写一个简单的helloworld吗,只需使用WebbRTC将一些数据从一个浏览器发送到另一个浏览器? 最佳答案 这是一个暗中操作,但最新的WebAPI编辑器草案有一个DataChannel接口(interface)作为Peer-to-PeerDataAPI的一部分。.但是,当前WorkingDraft没有此

javascript - 如何使用 Web RTC - Javascript 发送 UDP 数据包?

如何使用WebRTC发送UDP数据包? 最佳答案 您不能直接使用WebRTC发送UDP数据包。这将违反浏览器所需的基本安全约束。您可以发送SRTP到ICE-enabled主持人。这可能不是您要找的。如果浏览器允许发送任意UDP数据包,那么恶意应用程序就可以向任何主机发送数据包。这听起来可能还不错,毕竟Internet上的主机需要能够处理这些问题,对吧?问题在于某些浏览器处于protected环境中,网络访问受到限制。在这些网络中,某些主机受到的保护远不如公共(public)Internet上的主机受到的保护。这没问题,因为对网络的访

javascript - 在不刷新页面的情况下停止 getUserMedia 的网络摄像头流

这个问题在这里已经有了答案:Stop/Closewebcamstreamwhichisopenedbynavigator.mediaDevices.getUserMedia(16个答案)关闭6年前。我正在尝试使用javascript函数关闭网络摄像头(它必须在收到一些Ajax响应后关闭),但似乎无法在不刷新页面的情况下关闭。所有关闭它的方法,如video.src=null、video.pause等,在任何浏览器中都不起作用。独特的方法是关闭作为参数传递给成功函数的流,那么有什么方法可以在函数成功之外使用这个对象来关闭网络摄像头吗?我知道之前有人问过这个问题(Stop/Closewebc

javascript - 更改 RTCPeerConnection 的 MediaStream

我想从音频/视频流更改为“屏幕共享”流:peerConnection.removeStream(streamA)//__o_j_sep...inScreenshotsbelowpeerConnection.addStream(streamB)//SSTREAMinScreenshotsbelowstreamA是来self的相机和麦克风的视频/音频流。streamB是我从扩展程序中获取的屏幕截图。他们都是MediaStream看起来像这样的对象:*1备注但如果我删除streamA来自peerConnection和addStream(streamB)像上面一样,似乎什么也没发生。以下按预期

javascript - 为什么 "onicecandidate"不起作用?

我无法理解webRTC及其PeerConnection和“onicecandidate”事件。据我了解,您必须使用STUN(或TURN)服务器启动对等连接,因为它会将您发回ICE候选人以与另一个对等方通信。我见过一些示例,其中省略了PeerConnection对象的服务器参数,我也不太理解,但我们只是说它确实需要服务器参数。所以,当我写下下面的代码时:varpc,ice={"iceServers":[{"url":"stun:stun.l.google.com:19302"}]};if(typeofmozRTCPeerConnection==='function'){pc=newmoz

javascript - WebRTC MediaStream 的麦克风事件级别

我想要一些关于如何在Chrome/Canary中最好地获取音频MediaStreamTrackjavascript对象的麦克风事件级别的建议。MediaStreamTrack对象是getUserMedia返回的MediaStream的音轨,作为WebRTCjavascriptAPI的一部分。 最佳答案 当麦克风有音频时,上下绿色条非常漂亮:navigator.webkitGetUserMedia({audio:true,video:true},function(stream){//audioContext=newwebkitAudi

javascript - 如何在 Google Hangouts 或 OpenTokRTC 等 WebRTC 网络应用程序中禁用自动增益控制 (AGC)

在WebRTC之前的googletalkplugin时代,可以通过将audio-flags:1添加到配置文件来禁用AGC(麦克风的自动增益控制)。然而,由于GoogleHangouts现在使用WebRTC,经常会发生这样的情况,当我与某人聊天时,我的麦克风音量会一路下降,以至于我在另一边或多或少地保持沉默。我也遇到过多次将麦克风音量调高的记者。我在http://opentokrtc.com/上重现了这种行为它还使用WebRTC。通过在我的麦克风中发出响亮的爆裂声,我可以让电平在几步内一直下降。我可以在Chrome38和FireFox34beta上执行此操作。但是,当我在我的Ubuntu

php - 录制视频并将其保存到php服务器

我曾经使用html5进行过一个视频录制项目,但失败了。我能够查看和截取视频的屏幕截图,但不能录制它并将其发送到php。那么flash是不是更容易成功的方式呢?如果是,那我该如何开始?skype、google这样的大网站是怎么做到的?任何替代方案。 最佳答案 有RecordRTC-to-PHP开源项目,单独录制音频和视频,并使用传统的HTTP-POST机制推送到服务器。有一个类似的项目:RcordRTC-to-PHP-and-FFmpeg,不仅单独录制音频/视频,而且在PHP端使用ffmpeg将两个文件合并到单个WebM容器中。您可以

php - 带有本地网络的 webRTC

这里需要一些帮助。我正在创建一个html5/php网站,允许用户使用网络摄像头向多个用户广播视频,目前我们正在使用webRTC,但如果有很多用户观看视频,它就会滞后。我正在尝试将我的本地电脑用作主要来自Intranet的用户的服务器。我仍然可以使用webRTC来实现它吗?如果可以,我该怎么做?我可以阅读任何教程吗?variceServers=[];iceServers.push({url:'stun:stun.l.google.com:19302'});iceServers.push({url:'stun:stun.anyfirewall.com:3478'});iceServers.

Unity内接入WebRTC视频流

一、说明 目前Unity内基于谷歌的WebRTC通讯存在一定技术壁垒,所以选择与前端HTML结合解决需求。由前端提供JS与HTML,HTML内由前端编写了可以适配并且可以正常播放WebRTC视频流;然后在Unity内导入插件“WebViewForWindow”,该插件可以在Unity内通过API加载HTML网页到UI面板或者三维场景,并且可以对网页内容进行点击等操作。从而解决了WebRTC视频流的功能难点。二、流程1.在Unity工程内导入“WebViewForWindow”插件,得到如图文件夹。2.将该路径下的预制体拖到场景内的Canvas下3.如果填入Url,直接Unity运行可直接加载网