草庐IT

video-embedding

全部标签

iOS 10 - Objective-C : How to implement AVCapturePhotoOutput() to capture image and videos?

我正在尝试从我的应用程序中捕获图像和视频,现在从iOS10开始,"AVCaptureStillImageOutput"已弃用。请帮助我在Objective-C中实现AVCapturePhotoOutput。这是我的示例代码:_avCaptureOutput=[[AVCapturePhotoOutputalloc]init];_avSettings=[AVCapturePhotoSettingsphotoSettings];AVCaptureSession*captureSession=[[AVCaptureSessionalloc]init];[captureSessionstartR

embedded - 在没有操作系统的情况下构建和链接 µIP 库

我是嵌入式开发的新手,我有一个关于在嵌入式设备上构建和链接µIP库的问题或更多反馈。对于它的值(value),以下是使用带有ATMELAT91SAM9G20处理器的FOXG20V板,没有操作系统。我做了一些研究,我认为自己在板上构建和链接库的方式是以下两个选项之一。选项1:第一个选项是编译整个库(.c文件),以便以.a文件的形式构建静态库。然后,我可以将创建的静态库与我的应用程序代码链接起来,然后再将其加载到设备上。当然,必须对设备驱动程序进行编程才能使库在平台上工作(找到帮助here)。第一个选项是使用Linux机器。同样对于第一个选项,为了加载与我的应用程序代码链接的静态库,我是否

video-streaming - rtsp 从桌面服务器流式传输到我的客户端

我的桌面上运行着一个TCP服务器(用作服务器)。我想使用从服务器到ijkmediaplayer客户端的视频的RTSP流(在Android上显示)。我怎样才能做到这一点?我还需要在我的桌面上为此运行一个RTSP服务器吗?如何指定视频文件在服务器中的路径。我试过了:1)rtsp://serverip/filepath_in_mydesktop(这个没有给出任何错误,但我无法在android中观察到任何流媒体,但媒体播放器中的一切都工作得非常好。和2)rtsp://serverIP:serverPort/filename(TCP服务器正在使用的端口)(这会抛出无法解析路径的错误)能否告诉我如

embedded - Microchip TCP/IP 堆栈能否同时实现两个或多个客户端套接字?

我需要让一台设备与两台服务器通信。MicrochipTCP/IP协议(protocol)栈是否可行? 最佳答案 您可以(也应该)阅读文档,或咨询Microchip支持人员。MicrochipApp.NoteAN833描述了堆栈,并显示它具有配置宏MAX_SOCKETS(值1到253)和MAX_UDP_SOCKETS(1-254),两者都受可用RAM的限制,所以我会暗示说;是,如果您有足够的可用RAM。您应该完整阅读此AN,以确保堆栈在开始之前满足您的要求。在StackOverflow上提问并不能替代RTFM。

video-streaming - 基于TCP/IP的大二进制 block 传输协议(protocol)推荐

我打算开发一种视频转码系统。一台机器有图像采集卡,可以接收来自各种来源的音频/视频信号。多台转码机将通过千兆以太网连接到这台源机。源机将压缩后的音视频帧数据发送给转码机。因为这是一种简单的传输方式,所以我想我可以使用HTTP。但网络带宽是个问题。通过简单的搜索,我在Superuser中找到了一篇帖子.这个真实世界的千兆以太网示例仅显示340Mbps的吞吐量。我的目标系统应该能够同时对全高清视频进行多个转码。1080P全高清视频的数据速率可以在不压缩的情况下达到712Mbps。即使使用压缩,这也很容易使千兆位网络仅在1或2个channel上饱和。假设3是目标。我使用什么协议(protoc

embedded - 没有操作系统的 TCP/IP 协议(protocol)栈

我正在寻找可以在没有操作系统的情况下使用的TCP/IP堆栈。我们的客户“厌恶”中断,不希望在我们正在构建的嵌入式板上安装真正的操作系统。由于我们将只使用50到100MHz的Arm,因此希望尽可能多地将功能转移到FPGA。而且我很确定GPL许可的东西不会被这个客户接受。(由于与之相关的法律泥潭。他们希望在软件完成后拥有完全不受限制的权利。) 最佳答案 uIP(微型IP)和lwIP(轻量级IP)都是值得考虑的候选者。根据这两个堆栈的原始开发者-AdamDunkel-两者之间的主要区别之一是:“lwIP比uIP大,但提供更好的吞吐量”。这

ios - WebRTC(iOS): local video is not getting stream on remote side

我正在尝试使用WebRTC制作一个带有音频、视频通话的应用。远程视频和音频在我的应用程序中正常工作,但我的本地流没有出现在客户端。这是我为添加视频轨道而写的letvideoSource=self.rtcPeerFactory.videoSource()letvideoCapturer=RTCCameraVideoCapturer(delegate:videoSource)guardletfrontCamera=(RTCCameraVideoCapturer.captureDevices().first{$0.position==.front}),//choosehighestresle

iOS swift : How to post a video to twitter with TwitterKit?

我还没有找到关于SO的相关和最新的答案。这是我目前正在使用的代码,所有请求都得到了正确处理,但没有发布视频?ifletuserID=Twitter.sharedInstance().sessionStore.session()?.userID{varclient=TWTRAPIClient(userID:userID)lettext:String="TestingVideo"letvideoLength:String="\(self.video.length)"print(videoLength)varinitError:NSError?varmessage=["status":tex

ios - NSGenericException,原因 : [AVCapturePhotoOutput capturePhotoWithSettings:delegate:] No active and enabled video connection

我在尝试运行我的应用程序并拍摄照片时不断收到上述错误消息。我是编程新手,所以如果有人能提供帮助那就太棒了。这是我的代码importUIKitimportAVFoundationimportFirebaseclassCameraViewController:UIViewController,AVCapturePhotoCaptureDelegate,UITextViewDelegate,UITextFieldDelegate{@IBOutletweakvarcameraView:UIView!@IBOutletweakvarcancelButton:UIButton!@IBOutletw

iOS Swift : Trying to use write image buffer to construct video, 未调用 finishWritingWithCompletionHandler。输出视频包含零字节

我试图只从静态图像中写入两帧来构建视频。我一直在绕过时间参数。似乎最后一步finishWritingWithCompletionHandler从未被调用(完成写入......永远不会输出)。只创建了一个零字节.mp4视频。并且没有发生错误。不知道为什么。这是我使用的代码:funccreateBackgroundVideo(CompletionHandler:(path:String)->Void){varmaybeError:NSError?letfileMgr=NSFileManager.defaultManager()letdocDirectory=NSHomeDirectory(