草庐IT

A-Buffer

全部标签

ios - 如何从 vImage_Buffer 到 CVPixelBufferRef

我正在我的iOS应用程序中录制实时视频。在另一个StackOverflowpage,我发现您可以使用vImage_Buffer处理我的帧。问题是我不知道如何从输出的vImage_buffer返回到CVPixelBufferRef。这是另一篇文章中给出的代码:NSIntegercropX0=100,cropY0=100,cropHeight=100,cropWidth=100,outWidth=480,outHeight=480;CVImageBufferRefimageBuffer=CMSampleBufferGetImageBuffer(sampleBuffer);CVPixelBu

python - 找到 TypeError : coercing to Unicode: need string or buffer, ZipFile

我有一个服务器,它应该向客户端请求一个文件,将其压缩并发送给客户端。我在将zip文件发送到服务器时遇到了一些麻烦。这是我收到的错误:File"/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/threading.py",line810,in__bootstrap_innerself.run()File"/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/threading.py",line763,inrunself.__target(

go - 写入特定的 bytes.Buffer 偏移量

我正在尝试编写一个游戏服务器并且需要创建我将发送回客户端的数据包。我正在将所有数据写入bytes.Buffer然后我想在获取字节并将其发送到客户端之前为数据包的总大小添加前缀。我在想这样的事情://isitbadtocall`varbbytes.Buffer`everytimeIcreateapacket?funcCreatePacket()[]byte{varbbytes.Buffer//sizebinary.Write(b,binary.LittleEndian,0)//insertatend//body(variablenumberofwrites)binary.Write(b,

java - 谷歌 Protocol Buffer (Java 到 C++)

我正在尝试在Java和C++之间设置TCP/IP套接字连接,在Windows上使用Java,在RaspberryPi上使用C++。正在传输的消息是GoogleProtocolBuffer消息,其原型(prototype)设置如下:packagepackage_name;messageWin2Pi{optionalint32num1=1;optionalint32num2=2;optionalint32num3=3;optionalint32num4=4;optionalboollogic1=5;optionalboollogic2=6;optionalboollogic3=7;opti

sockets - 为什么 skb_buffer 需要跳过 20 个字节才能在数据包输入时读取传输缓冲区?

我正在Linux中编写一个网络模块,我看到只有从skb缓冲区跳过20个字节后才能提取tcpheader,即使API是“skb_transport_header”。其背后的原因是什么?有人可以详细解释一下吗?传出数据包不需要同样的。我知道在接收数据包时,当数据包从L1流向L5时,header会被删除。但是,当数据包传出时,会添加header。这在这里有何不同?/**对于输入包**/structtcphdr*tcp;tcp=(structtcphdr*)(skb_transport_header(skb)+20);/**对于传出数据包**/structtcphdr*tcp;tcp=(str

c++ - TCP 套接字 : Where does incoming data go after ack(leaves tcp read buffer) but before read()/recv()?

如果我有一个以200KB/秒的速度传输数据的TCP连接,但我每秒只从套接字read()/recv()一次,那么在哪里那些200KB的数据同时存储?据我所知,数据在ack发送给发送方后离开TCP套接字的读取缓冲区,而且它太小了,无法容纳200KB的数据,同时它在哪里等待,直到它可以被我的客户读取()/recv()?谢谢!!以下答案声称数据在被read()/recv()d之前一收到ACK就离开TCP读取缓冲区:https://stackoverflow.com/a/12934115/2378033“接收器的套接字接收缓冲区的大小决定了在没有确认的情况下可以传输多少数据”会不会是我的假设是错

swift - 如何在AR场景运行时提取SceneKit Depth Buffer?

如何提取SceneKit深度缓冲区?我制作了一个运行Metal的基于AR的应用程序,我真的很难找到有关如何提取2D深度缓冲区的任何信息,以便我可以渲染出场景的精美3D照片。非常感谢任何帮助。 最佳答案 你的问题不清楚,但我会尽力回答。VRView的深度传递如果您需要从SceneKit的3D环境渲染深度channel,那么您应该使用,例如,SCNGeometrySource.Semantic结构体。有vertex,normal,texcoord,color和tangent类型属性。让我们看看什么是vertex类型属性是:staticl

ios - swift 错误 : fatal error: Cannot index empty buffer

我是Swift语言的新手。我创建了一个MapKit应用程序,它从Sqlite数据库(最新的FMDB堆栈)中递归地检索MKPointAnnotation数据(纬度、日志和标题)。目的是把一堆兴趣点放在一个MKMapViewDelegate上。我尝试过不使用数组,但mapView.addAnnotation会覆盖任何点并仅显示map上的最后一个点,因此我正在尝试使用数组。我已经创建了一个函数,但是当调用wpoint数组时,我在运行时收到错误“fatalerror:无法索引空缓冲区”。代码如下:funcinitializeRoute(){sharedInstance.database!.op

IOS Swift 读取 PCM Buffer

我有一个Android项目,它读取一个short[]数组,其中包含来自麦克风缓冲区的PCM数据以进行实时分析。我需要将此功能转换为iOSSwift。在Android中,它非常简单,看起来像这样......importandroid.media.AudioFormat;importandroid.media.AudioRecord;...AudioRecordrecorder=newAudioRecord(MediaRecorder.AudioSource.DEFAULT,someSampleRate,AudioFormat.CHANNEL_IN_MONO,AudioFormat.ENC

ios Metal : multiple kernel calls in one command buffer

我在结合Swift和Metal中实现多个内核函数时遇到问题。我的目标是对图像实现逐blockDCT变换。DCT通过两个矩阵乘法实现。J=H*I*H^-1以下代码显示了内核函数本身以及在swift代码中使用的调用。如果我单独运行每个内核函数,它可以工作,但我无法设法将写缓冲区从第一个内核函数移交给第二个函数。因此,第二个函数总是返回一个仅填充0的缓冲区。所有图像输入和输出缓冲区都是400x400大的RGB(每个分量为16位整数)。矩阵是8x816位整数。是否需要特殊命令来同步不同内核函数的缓冲区读写访问?还是我做错了什么?谢谢你的帮助shaders.metalstructImage3D1