草庐IT

capture-output

全部标签

javascript - 从 Cordova Capture 获取音频数据的 base64

我正在使用ngCordovaCapture通过录制音频并将base64发送到某处(通过REST)来编写此代码。我可以让CaptureAudio工作,但是一旦它返回audioURI,我就无法从文件系统获取base64数据。我的代码如下:$cordovaCapture.captureAudio(options).then(function(audioURI){$scope.post.tracId=$scope.tracId;$scope.post.type='audio';console.log('audioURI:');console.log(audioURI);varpath=audi

iOS11 ARKit : Can ARKit also capture the Texture of the user's face?

我上下阅读了所有ARKit类的完整文档。我没有看到任何描述实际获取用户面部纹理的能力的地方。ARFaceAnchor包含ARFaceGeometry(由顶点组成的拓扑和几何)和BlendShapeLocation数组(坐标允许通过在用户面部顶点上操纵几何数学来操纵个人面部特征)。但是我在哪里可以获得用户面部的实际纹理。例如:实际肤色/颜色/质地、面部毛发、其他独特特征,如疤痕或胎记?或者这根本不可能? 最佳答案 你想要一张纹理贴图样式的面部图像吗?没有API可以让您完全做到这一点,但您需要的所有信息都在那里:ARFrame.capt

ios - 手机间隙 : output JS logs to XCode console

我是PhoneGap开发人员的新手。(使用cordova-2.5.0)尝试通过HTML中的Javascript将一些日志输出到XCode控制台。有什么办法可以做到这一点?(Console.log无效)我正在尝试使用名为“CDVLogger”的PhoneGap插件。此行在OnDeviceReady触发后执行:cordova.exec(function(winParam){},function(error){},"Logger","logLevel",["LOG","hello"]);但是不工作,只有JS错误。谁能帮我解决这个问题?非常感谢。 最佳答案

iOS UIImagePickerController vs AV foundation : looking to implement image capture with overlay, 哪个最好?

我希望在iOS应用程序中构建功能,允许用户拍摄照片或从他们的图库中抓取一张照片,对图像应用叠加层,然后使用叠加层保存图像。似乎有两种方法可以进行图像捕获,使用UIImagePickerController或AVfoundation。据我所知,UIImagePickerController似乎很容易实现,但可定制性较低。这是我应该用来做这件事的东西吗?还是我应该调查AVFoundation?对此不熟悉并寻找一些提示或任何可能有帮助的教程链接。谢谢! 最佳答案 UIImagepicker更简单,但会给你更少的选择。根据我的经验,AVFo

ios - 更新 : Image is captured but will not display

这个问题在这里已经有了答案:iOS8Snapshottingaviewthathasnotbeenrenderedresultsinanemptysnapshot(20个答案)关闭6年前。我有一些代码可以在我的一个应用程序上运行;所以我复制了代码,进行了必要的更改(即textField名称等)并且它有效,除非我将它移动到UIImageView;没有出现。这是我的代码:viewController.h(为简洁起见仅显示相关部分)#import"AppDelegate.h"#import"Books.h"#import#import"MBProgressHUD.h"#import#impo

iphone - Audio Session 服务 : kAudioSessionProperty_OverrideAudioRoute with different routes for input & output

我正在处理AudioSession服务。我正在尝试控制音频路由设置AudioSessionSetProperty:kAudioSessionProperty_OverrideAudioRoute作为kAudioSessionOverrideAudioRoute_Speaker。问题是它改变了输入和输出的路径。我想要的是从耳机的麦克风设置输入,并通过扬声器输出。有什么想法吗?是的! 最佳答案 您可以在iOS5中使用以下属性执行此操作:kAudioSessionProperty_InputSourcekAudioSessionPrope

objective-c - PhoneGap/Cordova iOS : capture video with a duration limit (ie. 30 秒)

我想将视频捕获限制在30秒以内。截至目前,PhoneGap文档说明了以下iOS实现:“不支持持续时间参数。无法以编程方式限制录制长度。”我确实找到了这篇文章,它似乎为纯客观的C实现提供了解决方案:iPhone:5secondsvideocapture问题是:这是可以“轻松”制作成phonegap插件的东西,还是有其他原因导致phonegap无法实现它?如果您认为可以完成-非常感谢任何指向正确方向的信息!谢谢:) 最佳答案 我正在尝试解决同样的问题并且可能有解决方案:capture.captureVideo()函数返回MediaFil

iPhone 4 AVFoundation : Capture from front and rear cameras simultaneously

我想知道是否可以使用AVFoundation框架同时从两个摄像头进行捕捉。具体来说,我的问题是前后AVCaptureDevices是否可以同时激活。目前我知道一个AVCaptureSession实例只能支持一个输入(和输出)。我创建了两个AVCaptureSession,将前置摄像头设备连接到一个,将后置摄像头设备连接到另一个,然后我将session的输出指向不同的SampleBufferDelegate函数。我看到的是一个委托(delegate)函数在几帧内处于事件状态,然后另一个接管。如果正在使用另一个摄像头设备,AVFoundation似乎会以某种方式关闭它。任何人都可以证实这一

iOS 10 - Objective-C : How to implement AVCapturePhotoOutput() to capture image and videos?

我正在尝试从我的应用程序中捕获图像和视频,现在从iOS10开始,"AVCaptureStillImageOutput"已弃用。请帮助我在Objective-C中实现AVCapturePhotoOutput。这是我的示例代码:_avCaptureOutput=[[AVCapturePhotoOutputalloc]init];_avSettings=[AVCapturePhotoSettingsphotoSettings];AVCaptureSession*captureSession=[[AVCaptureSessionalloc]init];[captureSessionstartR

ios - XCode: 'Warning: Multiple build commands for output file' 但如果我删除重复项,我会收到错误消息

我得到错误:Warning:Multiplebuildcommandsforoutputfile/Users/me/Library/Developer/Xcode/DerivedData/myapp-csoyvdzaugzkszeagjrtzrfssudr/Build/Products/Debug-iphonesimulator/myapp.app/icon-72.pngWarning:Multiplebuildcommandsforoutputfile/Users/me/Library/Developer/Xcode/DerivedData/myapp-csoyvdzaugzksze