草庐IT

android - 在 Android Vision API 中切换到 Camera2

我看到在androidvisionapi中(示例在这里:https://github.com/googlesamples/android-vision)相机(camera1)现已弃用,建议使用camera2。你们知道如何重写CameraSource以在androidvision上使用camera2吗?提前致谢 最佳答案 可以将Camera2API与GoogleVisionAPI结合使用。首先,GoogleVisionAPI人脸检测器收到一个Frame用于分析(检测人脸及其地标)的对象。Camera1API提供NV21图像格式的预览帧

android - 未找到 Google Vision 条形码库

我正在尝试使用GooglePlay服务(Vision)中的新功能将二维码扫描添加到我的应用程序中。但是当我运行我的应用程序时,我得到了这个:I/Vision﹕SupportedABIS:[armeabi-v7a,armeabi]D/Vision﹕Librarynotfound:/data/data/com.google.android.gms/files/com.google.android.gms.vision/barcode/libs/armeabi-v7a/libbarhopper.soI/Vision﹕Requestingbarcodedetectordownload.我已经按

ios - 新的 Apple Vision API VNTranslationalImageRegistrationRequest

我正在尝试玩ImageAlignmentAnalysis新VisionAPI的一部分,但我正在为VNTranslationalImageRegistrationRequest的初始化而苦苦挣扎。我的代码如下:importUIKitimportVisionclassImageTranslation{varsourceImage:UIImage!lazyvarimageTranslationRequest:VNTranslationalImageRegistrationRequest={//ThislinefailslettranslationRequest=VNTranslational

ios Vision VNImageRequestHandler方向问题

我正在尝试使用VNImageRequestHandler(iOSVision)通过摄像头检测人脸。当我在横向模式下用相机指向照片时,它会检测到面孔,但方向模式相反。letdetectFaceRequestHandler=VNImageRequestHandler(cvPixelBuffer:pixelBuffer,options:[:]) 最佳答案 您是否尝试过使用VNImageRequestHandlerorientation属性?letimageRequestHandler=VNImageRequestHandler(cvPix

ios - 使用 Vision Framework 查找人脸的俯仰和偏航

使用VNFaceObservation获取人脸的boundingbox和landmark信息,但是一直没能从observation中找到人脸的pitch和yaw从哪里获取。也曾尝试从CIDetector获取俯仰和偏航元数据,但同时运行CIDetector和VisionFramework会占用大量CPU。letmetadataOutput=AVCaptureMetadataOutput()letmetaQueue=DispatchQueue(label:"MetaDataSession")metadataOutput.setMetadataObjectsDelegate(self,que

swift - 用于对象识别的 ARKit 和 Vision 框架

我真的很想得到一些关于如何将Apple的新VisionAPI与ARKit结合起来以实现对象识别的指导。这不需要跟踪移动的物体,只需识别它在3d空间中的稳定状态,AR体验就会做出相应的react。我知道这种类型的体验在Vuforia或Wikitude等服务中可用,但我只想使用nativeAppleAPI进行尝试。 最佳答案 您不一定需要在项目中使用Vision框架本身,因为ARKit已经具备此功能。您只需要激活一个detectionObjects您可以直接从iOS12使用的实例属性:vardetectionObjects:Set{ge

ios - 将 DJI 视频源与 Vision Framework 一起使用

我正在开发一个应用程序,该应用程序使用DJIMavic2的视频源并通过机器学习模型运行它来识别对象。我设法让我的应用程序使用此sampleDJIproject预览来自无人机的提要,但我在尝试将视频数据转换为Visionframework可用的格式时遇到了很多麻烦.我用了thisexamplefromApple作为创建模型的指南(正在运行!),但看起来我需要创建一个VNImageRequestHandler对象,该对象是使用CMSampleBuffercvPixelBuffer创建的以便使用Vision。知道如何进行这种转换吗?有更好的方法吗?classDJICameraViewCont

ios - 将 Vision boundingBox 从 VNFaceObservation 转换为矩形以在图像上绘制

我正在尝试使用新的VisionAPI中的VNDetectFaceRectanglesRequest来检测图像上的人脸。然后,我在每个检测到的脸上画一个红色矩形。但我在将boundingBox从VNFaceObservation转换为CGRect时遇到问题。看来我唯一的问题是y来源。这是我的代码:letrequest=VNDetectFaceRectanglesRequest{request,errorinvarfinal_image=UIImage(ciImage:image)ifletresults=request.resultsas?[VNFaceObservation]{forf

python - vision-client 不支持 api-key

看起来google-cloudvisionPython客户端(google.cloud.vision.client.Client)没有接受api-key的选项。https://googlecloudplatform.github.io/google-cloud-python/stable/vision-client.html如何使用带有api-key身份验证的客户端? 最佳答案 我只是为future的读者添加这个,因为暂时没有其他答案存在(我还添加了赏金):fromgoogleapiclient.discoveryimportbui

python - Google Vision OCR 坐标值不完整

我有一个脚本可以遍历不同形式的图像。在解析GoogleVision文本检测响应时,我使用每个文本项的“boundingPoly”中的XY坐标来专门查找表单不同部分的数据。我遇到的问题是某些响应仅返回X坐标。示例:{u'description':u'sometext',u'boundingPoly':{u'vertices':[{u'x':5595},{u'x':5717},{u'y':122,u'x':5717},{u'y':122,u'x':5595}我已经设置了一个try/except(使用python2.7)来捕获这个问题,但它总是同一个问题:KeyError:'y'。我正在遍历