草庐IT

ableton-live

全部标签

ruby - Heroku 上的 ActionController::Live(Rails4)、Pub/Sub(Redis) 不起作用

我正在尝试在Heroku上使用ActionController::Live、Pub/Sub(Redis),但它不起作用。我正在使用Ruby2.0.0p247、Rails4、Puma。我想这样聊天。RailsCast(http://railscasts.com/episodes/401-actioncontroller-live?view=asciicast),GitHub(https://github.com/railscasts/401-actioncontroller-live/tree/master/chatter-after)我的代码是这样的。beginner_messages

iphone - Live555框架生成错误

我正在尝试为Live555库构建框架。我从here得到库文件按照这个answerofSO我已经多次尝试根据该答案生成它。它只是给出以下错误:/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/g++-c-Iinclude-I../UsageEnvironment/include-I../groupsock/include-I.-DBSD=1-O2-DSOCKLEN_T=socklen_t-DHAVE_SOCKADDR_LEN=1-D_LARGEFILE_SOUR

ios - 没有 drawRect : 的 Live Xcode 的 Interface Builder UIView 子类 (IB_DESIGNABLE)

是否可以创建一个UIView子类,在Xcode中实时呈现(通过添加IB_DESIGNABLE属性,如here所述),但没有自定义drawRect:方法?我们有一个自定义的UIView子类,它使用一些CAShapeLayer添加到self.layer进行绘图(因此,不需要覆盖drawRect:)。此类在App上运行良好,但无法在Xcode上呈现。如果我们复制drawRect:中的代码,它可以工作,但我们更愿意让绘图在图层上自动发生。这可以做到吗?我也试过-(void)drawRect:(CGRect)rect{CGContextRefcurrentContext=UIGraphicsGe

ios - 如何在iOS客户端上将外部WebVTT字幕添加到HTTP Live Stream中

我们有通过bitmovin.com编码的视频,并以HTTPLiveStreams(FairplayHLS)的形式提供,但字幕虽然是WebVTT格式,但它们是作为整个文件的直接URL单独显示的,而不是单独的片段,也不属于HLSm3u8播放列表的一部分。我正在寻找一种方式,如何仍可以将单独下载的外部.vtt文件包含在HLS流中,并作为AVPlayer中的字幕使用。我知道苹果的建议是将分段的VTT字幕包括在HLS播放列表中,但是我现在无法更改服务器的实现,因此我想澄清一下是否甚至可以将AVPlayer的字幕提供给HLS流播放。关于这个主题的唯一可能的说法是:SubtitlesforAVPla

iphone - 如何使用 HTTP Live Streaming 的 EXT-X-MEDIA?

我目前正在开展一个项目,该项目在一年中的不同季节拍摄了多次。不同的视频轨道是时间同步的,所以我想利用HTTPLiveStreaming的EXT-X-MEDIA让用户在iOS设备上的季节之间切换。我已经设置了一个包含视频的M3U8播放列表,但我似乎无法在Quicktime播放器中显示控件——无论是在iPhone还是iPad上。这是我的播放列表:#EXTM3U#EXT-X-MEDIA:TYPE=VIDEO,GROUP-ID="500kbs",NAME="Winter",AUTOSELECT=YES,DEFAULT=YES#EXT-X-MEDIA:TYPE=VIDEO,GROUP-ID="5

ios - 将音频缓冲区 [从文件] 添加到 'live' 音频缓冲区 [录制到文件]

我正在尝试做的事情:录制指定持续时间的音频/视频,其中生成的输出文件将添加来自外部音频文件的预定义背景音乐-录制后无需进一步编码/导出.就像您使用iPhone的相机应用程序录制视频一样,“相机胶卷”中的所有录制视频都有背景歌曲。结束录音后不导出或加载,也不在单独的AudioTrack中。我如何努力实现这一目标:通过使用AVCaptureSession,在传递(CMSampleBufferRef)样本缓冲区的委托(delegate)方法中,我将它们推送到AVAssetWriter以写入文件。由于我不希望输出文件中有多个音轨,因此我无法通过单独的AVAssetWriterInput传递背景

c++ - 通过互联网流式传输时出现 live555 问题

我已经用VS编译了live555源代码,如果我尝试在本地流式传输文件,它工作得很好例如命令行:live555.exe我的文件.mp3VLC连接字符串rtsp://169.254.1.231:8554/myfile.mp3但是如果我尝试通过互联网流式传输它,VLC会与live555通信,但live555不会向他发送数据命令行live555.exe我的文件.mp3VLC连接字符串rtsp://80.223.43.123:8554/myfile.mp3我已经转发了8554端口(tcp/udp)并尝试禁用我的防火墙,但这并没有解决。怎么样? 最佳答案

python - 提供 `none` url 和 `live` 状态的 wagtail 页面

我在使用wagtail页面时遇到了一些问题。从外壳>>>Site.get_site_root_paths()[(1,u'/home/',u'http://localhost')]>>>BlogPage.objects.all()[0]>>>BlogPage.objects.all()[0].url>>>BlogPage.objects.all()[0].full_url>>>BlogPage.objects.all()[0].status_string'live'>>>BlogPage.objects.all()[0].url_pathu'/blog/hello-wagtail/'它工

python - OpenCV-Python : How to get latest frame from the live video stream or skip old ones

我已经在Python中将IP摄像机与OpenCV集成在一起,以便从实时流中逐帧完成视频处理。我已将相机FPS配置为1秒,以便我可以在缓冲区中每秒处理1帧,但我的算法需要4秒来处理每一帧,导致缓冲区中未处理帧的停滞,随着时间的推移不断增长&造成指数延迟。为了解决这个问题,我又创建了一个线程,我在其中调用cv2.grab()API来清理缓冲区,它在每次调用中将指针移向最新帧。在主线程中,我正在调用retrieve()方法,它为我提供了第一个线程抓取的最后一帧。通过这种设计,帧停滞问题得到解决并消除了指数延迟,但仍然无法消除12-13秒的恒定延迟。我怀疑当调用cv2.retrieve()时它

关于vscode的Live Server插件时出现Open a folder or workspace... (File -> Open Folder)报错处理方法

文章目录📄前言🎯关于报错📝解决方法📄前言关于LiveServer插件,喜欢在vscode开发的开发者,应该都有所了解这个插件,它的作用是启动具有静态实时重新加载功能的开发本地服务器,简单来说就是:快速启动本地服务,自动监听,不需要刷新就能更新内容。那么为什么会出现这个报错呢,接下来我们快速分析并且解决。(注意在此之前已正确安装LiveServer插件,并且修改好默认浏览器)🎯关于报错Openafolderorworkspace...(File->OpenFolder)从字面意思上看,并不像是一个很严重的错误(但是有个红色的差,很亮眼),更像是一个建议和更好的操作方法步骤。上面说是要你打开一个文