草庐IT

RealityKit

全部标签

一文搞懂ARKit,ARCore,RealityKit和Vuforia

前言AR框架的一个核心是含能够理解特征的场景和各种类型的锚点。锚点有很多种,可根据特定场景来摆放3D模型,甚至可以真人来做距离测量(ARBodyAnchor)。并且这些框架不容忽视的优势是具有进行场景重建和人形遮挡(occlusion)的32位尝试数据。事实上,AR框架的大部分新功能都增强了AR体验质量。硬件也是如此,苹果全新的U1和R1芯片就带来了AR体验质量的跃升。今年苹果带了全新的VisionPro头显(微软HoloLens的一大竞争对手),让我们可以通过手势、眼部追踪和声音指令来与AR场景进行交互。这我们进入了全新的空间计算时代。有哪些玩家GoogleARCore可用于构建Androi

swift - 如何将已知位置和方向设置为 ARKit 的起点

我开始使用ARKit,我有一个用例,我想知道从已知位置到另一个位置的运动。所以我想知道是否有可能(像每个跟踪解决方案一样)在ARKit中设置一个已知的位置和方向作为跟踪的起点?问候 最佳答案 至少有六种方法可以让您为模型设置起点。但不使用ARAnchors在你的ARScene中完全没有被认为是糟糕的AR体验(尽管Apple的增强现实应用程序模板在代码中没有任何ARAnchors)。第一种方法这是Apple工程师在Xcode中的AugmentedRealityapp模板中向我们建议的方法。这种方法不使用锚定,所以您需要做的就是在空中放

swift - 如何在 ARKit 3.0 中启用 `Depth of Field` 选项?

在ARKit3.0中demoApple提出了depthoffield效果。我试图找到这方面的文档,但找不到我们应该如何启用它。我发现启用motionblur很容易和noisegrain效果。基本上,您可以在Objective-C中像这样设置一个标志scnview.rendersMotionBlur=true;但我找不到景深效果。这东西还没有暴露给开发者吗? 最佳答案 景深是RealityKit和SceneKit框架的后处理渲染器功能。ARKit中没有景深,因为ARKit不负责渲染。在RealityKit中,景深默认开启DepthOf

visionOS空间计算实战开发教程Day 2 使用RealityKit显示3D素材

我们在​​Day1​​中学习了如何创建一个visionOS应用,但在第一个Demo应用中我们的界面内容还是2D的,看起来和其它应用并没有什么区别。接下来我们先学习如何展示3D素材,苹果为方便开发人员,推出了RealityKit,接下来看如何使用。首先我们需要一个3D素材,Apple在​​QuickLook​​​页面提供了一些素材,读者也可以到​​Sketchfab​​​等网站获取其它的免费或付费素材,推荐的格式是usdz,这是Pixar研发开源的一种文件格式,目前根据​​AOUSD​​官网其主要成员有苹果、英伟达、AutoDesk、Adobe和Unity等业界大佬。并且主流的设备软件基本都内置

swift - 3d模型SceneKit/ARKit最好使用哪种格式文件

我阅读了一些教程,了解如何在SceneKit/ARKit应用程序中放置3d对象,它们都使用.scn格式的对象文件。但我发现如果我使用原始的.dae格式并且不将其转换为.scn格式则没有任何问题。我真的看不出.dae和.scn格式之间有什么区别。实际上结果在我看来是一样的,但你能解释一下它们之间的区别以及我应该在什么情况下使用什么吗?谢谢! 最佳答案 差异.dae和.scn格式之间的区别很明显。Collada.dae(代表数字Assets交换)是一种跨平台的基于XML的架构文件格式用于3D创作应用程序(如Maya或Blender)中的

swift - 如何使用 Xcode 转换器创建 USDZ 文件?

在2018WWDCAppleannounced引入新的USDZ文件格式。关于创建USDZ文件的内容如下:要创建您自己的usdz文件,usdz_converter已作为Xcode10beta的一部分捆绑在一起。它是一个命令行工具,用于从OBJ文件、单帧Alembic(ABC)文件、USD文件(.usda或usd.c)创建usdz文件基本的命令行是xcrunusdz_convertermyFile.objmyFile.usdz我已经安装了Xcode10beta,但无法运行,甚至无法在2018年6月4日提供的Xcode10betabundle(内部版本10L176w)中找到usdz_conv

Realitykit结合Speech实现语音控制AR机器人移动(完整代码)

利用Apple最新的Realitykit搭配ARkit实现虚拟物体的放置,结合内置的Speech库实现语音的识别功能,将语音内容转为文本内容,从而让机器进行运动。大体思路:1、配置并启动ARkit环境。2、构建Entity实体。可以用Apple官方的CreatingAPhotogrammetryCommandLineApp的代码文档来生成.usdz文件,从而建造自己想要的实体。3、放置实体到现实环境中。通过raycast发射射线,通过转化获得现实世界中的x,y,z的坐标,从而把实体放在现实世界中。4、实现机器人的运动。通过传入文本信息,利用实体的transition属性来进行移动。5、通过SF