草庐IT

android - Android 设备上的 60/120fps 预览数据?

我们想使用Neon组件或GPU着色器处理120fps(或60fps)的相机预览数据,以执行简单的图像处理操作(例如3x3卷积)。我们对在屏幕上显示图像不感兴趣,因此相机数据应直接进入SurfaceTexture。我们认为我们可以在Nexus5上使用CameraConstrainedHighSpeedCaptureSession使用Camera2API来完成此操作,但没有成功。目前互联网上没有允许这样做的功能代码(至少我们已经抓取的部分),但似乎可能存在该功能。使用Camera2API进行高速录制的最佳示例如下:https://github.com/PkmX/lcamera为了鼓励有人发

c++ - 如何在我的 OpenGL 应用程序中实现准确(但可变)的 FPS 限制/上限?

我目前正在开发一个OpenGL应用程序来向用户显示一些3D球体,他们可以旋转、四处移动等。话虽如此,这里并没有太多复杂性,因此该应用程序运行在相当高的帧率(~500FPS)。显然,这太过分了——即使120也足够了,但我的问题是,以全状态运行应用程序会消耗我的CPU,导致过热、功耗等。我想做的是能够让用户设置FPS上限,以便CPU在不需要时不会被过度使用。我正在使用freeglut和C++,并且已经设置了动画/事件处理以使用计时器(使用glutTimerFunc)。但是,glutTimerFunc只允许设置整数毫秒-所以如果我想要120FPS,我能得到的最接近的是(int)1000/12

c++ - 获取 Microsoft Media Foundation 中相机的所有支持的 FPS 值

我想获取我的网络摄像头支持的所有FPS值的列表。在HowtoSettheVideoCaptureFrameRatemsdn文章说我可以查询系统以获取特定相机支持的最大和最小FPS。它还说:Thedevicemightsupportotherframerateswithinthisrange.并且在MF_MT_FRAME_RATE_RANGE_MIN它说:Thedeviceisnotguaranteedtosupporteveryincrementwithinthisrange.所以听起来没有办法获得媒体基础中相机支持的所有FPS值,只有最大值和最小值。我知道在Linux上,v4l2-c

c++ - OpenCV:VideoCapture::get(CV_CAP_PROP_FPS) 返回 0 FPS

我正在尝试从我的相机获取fps,以便我可以将其传递给VideoWriter以输出视频。但是,我通过从我的相机调用VideoCapture::get(CV_CAP_PROP_FPS)获得0fps。如果我对其进行硬编码,我的视频可能会太慢或太快。#include"opencv2/opencv.hpp"#include#includeusingnamespacestd;usingnamespacecv;intmain(intargc,char*argv[]){cv::VideoCapturecap;intkey=0;if(argc>1){cap.open(string(argv[1]));}

iphone - 在 iPhone 5S 上访问源 120 FPS 视频?

iPhone5S上是否有任何API允许应用程序访问从相机应用程序的“慢动作”模式捕获的原始120FPS版本的视频? 最佳答案 恐怕我不能准确地告诉你(没有iPhone5S来测试它)但是根据这个问题你可以以60fps的速度捕获:Capture60fpsiniPhoneapp也许可以将60换成120并获得120fps的视频。应该值得一试。但是,如果您只是对存储在Photos应用程序中的以前捕获的视频感兴趣,那么我很确定没有用于直接访问120fps视频的API 关于iphone-在iPhone

ios - SpriteKit 物理在 iOS 9 上巨大的 FPS 下降

我在场景中遇到了一个巨大的FPS下降,一些静态SKSpriteNode节点的主体定义为SKPhysicsBodyinit(polygonFrom:CGPath)和一些简单的动态SKSpriteNode节点,其主体由init(rectangleOf:CGSize)定义。动态节点在场景中发射并最终停止,具体取决于物理。每个动态节点都与其他动态节点发生碰撞,也与前面提到的静态节点发生碰撞。游戏以60fps的速度流畅运行,直到屏幕上的动态节点数量达到约30或更多。之后,FPS开始急剧下降到10fps左右。注意1:这个问题在iOS10上不存在,只有iOS9(我没有测试过iOS8,因为我不支持它)

ios - 以编程方式计算 iOS 应用程序的 FPS(每秒帧数)有多少种方法?

由于我们讨论的是编程,Instruments不在我的考虑范围内。一些提前列出的引用:Calculatefps(framespersecond)foriphoneappDisplayFPSoniOSonscreen(withoutInstruments)AtwhatframeratedoestheiOSUIrunanimationsat?1。使用CADisplayLink根据文档,Thedurationpropertyprovidestheamountoftimebetweenframes.Youcanusethisvalueinyourapplicationtocalculatethe

ios - 如何以 60 fps 屏幕录制 iOS 模拟器?

事实证明,在Mac上从屏幕捕捉视频是一项艰巨的任务。我有一个在模拟器中运行的小游戏,想为youtube制作游戏的截屏视频。由于这是一款快节奏的卷轴游戏,因此视频必须以60fps的速度录制才能看起来不错。例如,我知道youtube上的实际视频只有24到30fps,但每个这样的慢帧都与另一个混合。当以低于60fps的帧速率捕获模拟器时,结果参差不齐,因为每一帧都非常锐利,没有混合。我尝试了几个Mac屏幕录像机,但没有一个能够从模拟器中捕获60fps的视频,并且生成的视频中的帧看起来就像应用程序截取了大量屏幕截图并将它们拼凑到一个视频容器中一样。但由于在youtube上有很棒的演示视频展示了

iOS AVFoundation - 以 60 fps 的速度将视频转换为图像

我正在尝试以60fps的速率将整个视频转换为一系列图像,这意味着视频每秒生成60张图像...为此,我使用了AVAssetImageGenerator和generateCGImagesAsynchronouslyForTimes方法...一切进展顺利,只是我在批处理执行时间方面遇到了严重的性能问题(13秒视频大约需要5分钟)...此外,超过以下大小CGSizeMake(512,324),我遇到崩溃......有没有人已经有过这种处理的经验并且知道如何减少执行时间以及能够以更高分辨率提取图像?下面是我正在测试的代码......NSURL*movieURL=[NSURLfileURLWith

iphone - 如何测量 OpenGL ES 的真实 FPS 性能?

我意识到这是两个不同的东西:绘图,并将其显示在屏幕上。因此,虽然您可能会以60FPS的速率从CADisplayLink进行每次调用,但如果您的绘图操作花费的时间略长于1/60秒,那么理论上您最终会达到30FPS,因为您错过了所有其他操作有机会通过渲染管道。好的;知道这一点,记住开始NSTimeInterval并在运行循环中递增帧计数器,然后在结束时检查是否已经过去一秒并计算最后一秒的FPS似乎是无稽之谈。我想要一种从屏幕上的OpenGLES实际获取真实FPS值的方法。我查看了Xcode3.2.6中的仪器,但找不到一个。但我记得有一种方法可以获得该FPS值。真实的。如何?