草庐IT

ios - 从麦克风播放音频

coder 2023-09-11 原文

目标:将音频/视频从一台设备流式传输到另一台设备。

问题:我设法同时获得了音频和视频,但音频无法在另一端播放。


详细信息:

我创建了一个应用程序,可以通过网络将 A/V 数据从一台设备传输到另一台设备。为了不涉及太多细节,我将向您展示我被困在哪里。我设法听取了输出委托(delegate),我在其中提取音频信息,将其转换为数据并将其传递给我创建的委托(delegate)。

func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!) {
    // VIDEO | code excluded for simplicity of this question as this part works

    // AUDIO | only deliver the frames if you are allowed to
    if self.produceAudioFrames == true {
        // process the audio buffer
        let _audioFrame = self.audioFromSampleBuffer(sampleBuffer)
        // process in async
        DispatchQueue.main.async {
            // pass the audio frame to the delegate
            self.delegate?.audioFrame(data: _audioFrame)
        }
    }
}

转换 SampleBuffer 的辅助函数(不是我的代码,找不到源代码。我知道在 SO 上找到了它):

func audioFromSampleBuffer(_ sampleBuffer: CMSampleBuffer) -> Data {

    var audioBufferList = AudioBufferList()
    var data = Data()
    var blockBuffer : CMBlockBuffer?

    CMSampleBufferGetAudioBufferListWithRetainedBlockBuffer(sampleBuffer, 
                                                            nil,
                                                            &audioBufferList, 
                                                            MemoryLayout<AudioBufferList>.size, 
                                                            nil, 
                                                            nil, 
                                                            0, 
                                                            &blockBuffer)

    let buffers = UnsafeBufferPointer<AudioBuffer>(start: &audioBufferList.mBuffers, 
                                                   count: Int(audioBufferList.mNumberBuffers))
    for audioBuffer in buffers {
        let frame = audioBuffer.mData?.assumingMemoryBound(to: UInt8.self)
        data.append(frame!, count: Int(audioBuffer.mDataByteSize))
    }
    // dev
    //print("audio buffer count: \(buffers.count)") | this returns 2048
    // give the raw data back to the caller
    return data
}

注意:在通过网络发送之前,我像这样转换从辅助函数返回的数据:let payload = Array(data)

那是主人的一面。

在客户端,我收到了 [UInt8] 的有效负载,这就是我被卡住的地方。我尝试了多种方法,但都没有用。

func processIncomingAudioPayloadFromFrame(_ ID: String, _ _Data: [UInt8]) {
    let readableData = Data(bytes: _Data) // back from array to the data before we sent it over the network.
    print(readableData.count) // still 2048 even after recieving from network, So I am guessing data is still intact

    let x = self.bytesToAudioBuffer(_Data) // option two convert into a AVAudioPCMBuffer
    print(x) // prints | <AVAudioPCMBuffer@0x600000201e80: 2048/2048 bytes> | I am guessing it works

    // option one | play using AVAudioPlayer
    do {
        let player = try AVAudioPlayer(data: readableData)
        try AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayback)
        try AVAudioSession.sharedInstance().setActive(true)
        player.prepareToPlay()
        player.play()
        print(player.volume) // doing this to see if this is reached
    }catch{
        print(error) // gets error | Error Domain=NSOSStatusErrorDomain Code=1954115647 "(null)"
    }
}

这是将 [UInt8] 转换为 AVAudioPCMBuffer 的辅助函数:

func bytesToAudioBuffer(_ buf: [UInt8]) -> AVAudioPCMBuffer {
    // format assumption! make this part of your protocol?
    let fmt = AVAudioFormat(commonFormat: .pcmFormatFloat32, sampleRate: 44100, 
                            channels: 1, interleaved: true)
    let frameLength = UInt32(buf.count) / fmt.streamDescription.pointee.mBytesPerFrame

    let audioBuffer = AVAudioPCMBuffer(pcmFormat: fmt, frameCapacity: frameLength)
    audioBuffer.frameLength = frameLength

    let dstLeft = audioBuffer.floatChannelData![0]
    // for stereo
    // let dstRight = audioBuffer.floatChannelData![1]

    buf.withUnsafeBufferPointer {
        let src = UnsafeRawPointer($0.baseAddress!).
            bindMemory(to: Float.self, capacity: Int(frameLength))
        dstLeft.initialize(from: src, count: Int(frameLength))
    }
    return audioBuffer
}

问题:

  1. 是否可以直接从 [UInt8] 播放?
  2. 如何使用 AudioEngine 播放 AVAudioPCMBuffer 负载? 可能吗?
  3. 如何在客户端播放音频。

脚注:我希望代码中的注释可以为您提供一些输出提示。我也不想保存到文件或任何相关文件,因为我只想放大麦克风以进行实时收听,我对保存数据没有兴趣。

最佳答案

我使用了相同的代码,用于在运营商调用时播放音频文件。

请尝试并告诉我结果:

目标代码:

NSString *soundFilePath = [[NSBundle mainBundle] 
pathForResource:self.bgAudioFileName ofType: @"mp3"];    

NSURL *fileURL = [[NSURL alloc] initFileURLWithPath:soundFilePath ];

myAudioPlayer = [[AVAudioPlayer alloc] initWithContentsOfURL:fileURL 
error:nil];

myAudioPlayer.numberOfLoops = -1;

NSError *sessionError = nil;

// Change the default output audio route
AVAudioSession *audioSession = [AVAudioSession sharedInstance];

 // get your audio session somehow
[audioSession setCategory:AVAudioSessionCategoryMultiRoute 
 error:&sessionError];

BOOL success= [audioSession         
overrideOutputAudioPort:AVAudioSessionPortOverrideNone 
error:&sessionError];

 [audioSession setActive:YES error:&sessionError];
 if(!success)
 {
     NSLog(@"error doing outputaudioportoverride - %@", [sessionError    
     localizedDescription]);
}
 [myAudioPlayer setVolume:1.0f];
 [myAudioPlayer play];

快速版本:

 var soundFilePath: String? = Bundle.main.path(forResource: 
 bgAudioFileName, ofType: "mp3")
 var fileURL = URL(fileURLWithPath: soundFilePath ?? "")
 myAudioPlayer = try? AVAudioPlayer(contentsOf: fileURL)
 myAudioPlayer.numberOfLoops = -1
 var sessionError: Error? = nil
// Change the default output audio route
 var audioSession = AVAudioSession.sharedInstance()
 // get your audio session somehow
 try? audioSession.setCategory(AVAudioSessionCategoryMultiRoute)
 var success: Bool? = try? 
 audioSession.overrideOutputAudioPort(AVAudioSessionPortOverrideNone 
 as? AVAudioSessionPortOverride ?? AVAudioSessionPortOverride())
 try? audioSession.setActive(true)
 if !(success ?? false) {
   print("error doing outputaudioportoverride - \
      (sessionError?.localizedDescription)")
   }
  myAudioPlayer.volume = 1.0
  myAudioPlayer.play()

关于ios - 从麦克风播放音频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48164407/

有关ios - 从麦克风播放音频的更多相关文章

  1. ruby - 如何验证 IO.copy_stream 是否成功 - 2

    这里有一个很好的答案解释了如何在Ruby中下载文件而不将其加载到内存中:https://stackoverflow.com/a/29743394/4852737require'open-uri'download=open('http://example.com/image.png')IO.copy_stream(download,'~/image.png')我如何验证下载文件的IO.copy_stream调用是否真的成功——这意味着下载的文件与我打算下载的文件完全相同,而不是下载一半的损坏文件?documentation说IO.copy_stream返回它复制的字节数,但是当我还没有下

  2. Ruby 文件 IO 定界符? - 2

    我正在尝试解析一个文本文件,该文件每行包含可变数量的单词和数字,如下所示:foo4.500bar3.001.33foobar如何读取由空格而不是换行符分隔的文件?有什么方法可以设置File("file.txt").foreach方法以使用空格而不是换行符作为分隔符? 最佳答案 接受的答案将slurp文件,这可能是大文本文件的问题。更好的解决方案是IO.foreach.它是惯用的,将按字符流式传输文件:File.foreach(filename,""){|string|putsstring}包含“thisisanexample”结果的

  3. Get https://registry-1.docker.io/v2/: net/http: request canceled while waiting - 2

    1.错误信息:Errorresponsefromdaemon:Gethttps://registry-1.docker.io/v2/:net/http:requestcanceledwhilewaitingforconnection(Client.Timeoutexceededwhileawaitingheaders)或者:Errorresponsefromdaemon:Gethttps://registry-1.docker.io/v2/:net/http:TLShandshaketimeout2.报错原因:docker使用的镜像网址默认为国外,下载容易超时,需要修改成国内镜像地址(首先阿里

  4. ruby - 为什么不能使用类IO的实例方法noecho? - 2

    print"Enteryourpassword:"pass=STDIN.noecho(&:gets)puts"Yourpasswordis#{pass}!"输出:Enteryourpassword:input.rb:2:in`':undefinedmethod`noecho'for#>(NoMethodError) 最佳答案 一开始require'io/console'后来的Ruby1.9.3 关于ruby-为什么不能使用类IO的实例方法noecho?,我们在StackOverflow上

  5. ruby - 如何以编程方式将 mp3 转换为 itunes 可播放的 aac/m4a 文件? - 2

    我一直在寻找一种以编程方式或通过命令行将mp3转换为aac的方法,但没有成功。理想情况下,我有一段代码可以从我的Rails应用程序中调用,将mp3转换为aac。我安装了ffmpeg和libfaac,并能够使用以下命令创建aac文件:ffmpeg-itest.mp3-acodeclibfaac-ab163840dest.aac当我将输出文件的名称更改为dest.m4a时,它无法在iTunes中播放。谢谢! 最佳答案 FFmpeg提供AAC编码功能(如果您已编译它们)。如果您使用的是Windows,则可以从here获取完整的二进制文件。

  6. ruby - 如何播放 mp3 文件? - 2

    我如何用ruby​​编写一个脚本,当从命令行执行时播放mp3文件(背景音乐)?我试过了run="mplayer#{"/Users/bhushan/resume/m.mp3"}-aosdl-vox11-framedrop-cache16384-cache-min20/100"system(run)但它也不起作用,以上是播放器特定的。如果用户没有安装mplayer怎么办。有没有更好的办法? 最佳答案 我一般都是这样pid=fork{exec'mpg123','-q',file} 关于ruby

  7. ruby - 为 IO::popen 拯救 "command not found" - 2

    当我将IO::popen与不存在的命令一起使用时,我在屏幕上打印了一条错误消息:irb>IO.popen"fakefake"#=>#irb>(irb):1:commandnotfound:fakefake有什么方法可以捕获此错误,以便我可以在脚本中进行检查? 最佳答案 是:升级到ruby​​1.9。如果您在1.9中运行它,则会引发Errno::ENOENT,您将能够拯救它。(编辑)这是在1.8中的一种hackish方式:error=IO.pipe$stderr.reopenerror[1]pipe=IO.popen'qwe'#

  8. ruby - IO::EAGAINWaitReadable:资源暂时不可用 - 读取会阻塞 - 2

    当我尝试使用“套接字”库中的方法“read_nonblock”时出现以下错误IO::EAGAINWaitReadable:Resourcetemporarilyunavailable-readwouldblock但是当我通过终端上的IRB尝试时它工作正常如何让它读取缓冲区? 最佳答案 IgetthefollowingerrorwhenItrytousethemethod"read_nonblock"fromthe"socket"library当缓冲区中的数据未准备好时,这是预期的行为。由于异常IO::EAGAINWaitReadab

  9. ruby - 如何使用 ruby​​ fibers 避免阻塞 IO - 2

    我需要将目录中的一堆文件上传到S3。由于上传所需的90%以上的时间都花在了等待http请求完成上,所以我想以某种方式同时执行其中的几个。Fibers能帮我解决这个问题吗?它们被描述为解决此类问题的一种方法,但我想不出在http调用阻塞时我可以做任何工作的任何方法。有什么方法可以在没有线程的情况下解决这个问题? 最佳答案 我没有使用1.9中的纤程,但是1.8.6中的常规线程可以解决这个问题。尝试使用队列http://ruby-doc.org/stdlib/libdoc/thread/rdoc/classes/Queue.html查看文

  10. ruby - 如何从 ruby​​ 中的 IO 对象获取文件名 - 2

    在ruby中...我有一个由外部进程创建的IO对象,我需要从中获取文件名。然而我似乎只能得到文件描述符(3),这对我来说不是很有用。有没有办法从此对象获取文件名甚至获取文件对象?我正在从通知程序中获取IO对象。所以这也可能是获取文件路径的一种方式? 最佳答案 关于howtogetathefilenameinC也有类似的问题,我将在这里以ruby​​的方式给出这个问题的答案。在Linux中获取文件名假设io是您的IO对象。以下代码为您提供了文件名。File.readlink("/proc/self/fd/#{io.fileno}")例

随机推荐