使用AudioRenderer开发音频播放功能

使用AudioRenderer开发音频播放功能

HarmonyOS
2024-05-20 21:11:12
浏览
收藏 0
回答 1
回答 1
按赞同
/
按时间
济南二狗子

AudioRenderer是一个音频渲染器,用于播放PCM音频数据,相比AVPlayer而言,可以在输入前添加数据预处理,更适合有音频开发经验的开发者,以实现更灵活的播放功能。本案例展示的是用AudioRenderer播放用AudioCapturer录制的音频数据。

使用的核心API

  • 使用AudioRenderer播放音频涉及到AudioRenderer实例的创建、音频渲染参数的配置、渲染的开始与停止、资源的释放等
  • 在创建实例后,调用对应的方法可以进入指定的状态实现对应的行为。需要注意的是在确定的状态执行不合适的方法可能导致AudioRenderer发生错误,建议开发者在调用状态转换的方法前进行状态检查,避免程序运行产生预期以外的结果。

AudioRenderer状态变化示意图

  •  prepared状态:    通过调用createAudioRenderer()方法进入到该状态。
  •  running状态:    正在进行音频数据播放,可以在prepared状态通过调用start()方法进入此状态,也可以在paused状态和stopped状态通过调用start()方法进入此状态。
  •  paused状态:    在running状态可以通过调用pause()方法暂停音频数据的播放并进入paused状态,暂停播放之后可以通过调用start()方法继续音频数据播放。
  •  stopped状态:    在paused/running状态可以通过stop()方法停止音频数据的播放。
  •  released状态:    在prepared、paused、stopped等状态,用户均可通过release()方法释放掉所有占用的硬件和软件资源,并且不会再进入到其他的任何一种状态了。

核心代码解释

import audio from '@ohos.multimedia.audio'; 
import fs from '@ohos.file.fs'; 
import common from '@ohos.app.ability.common'; 
import { Context } from '@ohos.abilityAccessCtrl'; 
  
const TAG = 'AudioRendererDemo'; 
  
export class AudioRendererHelper { 
  
  static instance = new AudioRendererHelper() 
  private context: Context; 
  private renderModel: audio.AudioRenderer | undefined = undefined; 
  private audioStreamInfo: audio.AudioStreamInfo = { 
    samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_44100, 
    channels: audio.AudioChannel.CHANNEL_1, 
    sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, 
    encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW 
  }; 
  
  private audioRendererInfo: audio.AudioRendererInfo = { 
    usage: audio.StreamUsage.STREAM_USAGE_VOICE_COMMUNICATION, 
    rendererFlags: 0 
  }; 
  
  private audioRendererOptions: audio.AudioRendererOptions = { 
    streamInfo: this.audioStreamInfo, 
    rendererInfo: this.audioRendererInfo 
  }; 
  
  
  // 开始一次音频渲染 
  async start(name: string,context:  Context = null ) { 
  
  
    this.context = context; 
    this.renderModel = await audio.createAudioRenderer(this.audioRendererOptions); 
  
  
    if (this.renderModel !== undefined) { 
      let stateGroup = [audio.AudioState.STATE_PREPARED, audio.AudioState.STATE_PAUSED, audio.AudioState.STATE_STOPPED]; 
      if (stateGroup.indexOf((this.renderModel as audio.AudioRenderer).state.valueOf()) === -1) { // 当且仅当状态为prepared、paused和stopped之一时才能启动渲染 
        console.error(TAG + 'start failed'); 
        return; 
      } 
      await (this.renderModel as audio.AudioRenderer).start(); // 启动渲染 
  
      const bufferSize = await (this.renderModel as audio.AudioRenderer).getBufferSize(); 
  
      let path = this.context.filesDir; 
      const filePath = path + name; // 使用沙箱路径获取文件,实际路径为/data/storage/el2/base/haps/entry/files/test.wav 
      console.info("*****************************************") 
      console.info(filePath) 
      let file = fs.openSync(filePath, fs.OpenMode.READ_ONLY); 
      let stat = await fs.stat(filePath); 
      let buf = new ArrayBuffer(bufferSize); 
      let len = stat.size % bufferSize === 0 ? Math.floor(stat.size / bufferSize) : Math.floor(stat.size / bufferSize + 1); 
  
      class Options { 
        offset: number = 0; 
        length: number = 0 
      } 
  
      for (let i = 0; i < len; i++) { 
        let options: Options = { 
          offset: i * bufferSize, 
          length: bufferSize 
        }; 
        let readsize = await fs.read(file.fd, buf, options); 
  
        // buf是要写入缓冲区的音频数据,在调用AudioRenderer.write()方法前可以进行音频数据的预处理,实现个性化的音频播放功能,AudioRenderer会读出写入缓冲区的音频数据进行渲染 
  
        let writeSize: number = await (this.renderModel as audio.AudioRenderer).write(buf); 
        if ((this.renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_RELEASED) { // 如果渲染器状态为released,关闭资源 
          fs.close(file); 
        } 
        if ((this.renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_RUNNING) { 
          if (i === len - 1) { // 如果音频文件已经被读取完,停止渲染 
            fs.close(file); 
            await (this.renderModel as audio.AudioRenderer).stop(); 
            if ((this.renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_STOPPED) { 
              console.info('Renderer stopped.'); 
            } else { 
              console.error('Stopping renderer failed.'); 
            } 
          } 
        } 
      } 
    } 
  } 
  
  // 停止渲染 
  async stop() { 
    if (this.renderModel !== undefined) { 
      // 只有渲染器状态为running或paused的时候才可以停止 
      if ((this.renderModel as audio.AudioRenderer).state.valueOf() !== audio.AudioState.STATE_RUNNING && (this.renderModel as audio.AudioRenderer).state.valueOf() !== audio.AudioState.STATE_PAUSED) { 
        console.info('Renderer is not running or paused.'); 
        return; 
      } 
      await (this.renderModel as audio.AudioRenderer).stop(); // 停止渲染 
      if ((this.renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_STOPPED) { 
        console.info('Renderer stopped.'); 
      } else { 
        console.error('Stopping renderer failed.'); 
      } 
    } 
  } 
  
  // 销毁实例,释放资源 
  async release() { 
    if (this.renderModel !== undefined) { 
      // 渲染器状态不是released状态,才能release 
      if (this.renderModel.state.valueOf() === audio.AudioState.STATE_RELEASED) { 
        console.info('Renderer already released'); 
        return; 
      } 
      await this.renderModel.release(); // 释放资源 
      if (this.renderModel.state.valueOf() === audio.AudioState.STATE_RELEASED) { 
        console.info('Renderer released'); 
      } else { 
        console.error('Renderer release failed.'); 
      } 
    } 
  
  
  } 
} 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49.
  • 50.
  • 51.
  • 52.
  • 53.
  • 54.
  • 55.
  • 56.
  • 57.
  • 58.
  • 59.
  • 60.
  • 61.
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
  • 69.
  • 70.
  • 71.
  • 72.
  • 73.
  • 74.
  • 75.
  • 76.
  • 77.
  • 78.
  • 79.
  • 80.
  • 81.
  • 82.
  • 83.
  • 84.
  • 85.
  • 86.
  • 87.
  • 88.
  • 89.
  • 90.
  • 91.
  • 92.
  • 93.
  • 94.
  • 95.
  • 96.
  • 97.
  • 98.
  • 99.
  • 100.
  • 101.
  • 102.
  • 103.
  • 104.
  • 105.
  • 106.
  • 107.
  • 108.
  • 109.
  • 110.
  • 111.
  • 112.
  • 113.
  • 114.
  • 115.
  • 116.
  • 117.
  • 118.
  • 119.
  • 120.
  • 121.
  • 122.
  • 123.
  • 124.
  • 125.
  • 126.

注明适配的版本信息

  •  IDE:DevEco Studio 4.0.3.600
  •  SDK:HarmoneyOS 4.0.10.11
分享
微博
QQ
微信
回复
2024-05-21 16:58:19


相关问题
AVplayer开发音频播放功能
1807浏览 • 1回复 待解决
使用AudioCapturer开发音频录制功能
2054浏览 • 1回复 待解决
使用AudioRenderer播放pcm音频流失败
2441浏览 • 1回复 待解决
AudioCapturer录音+AudioRenderer播放音频
2441浏览 • 1回复 待解决
鸿蒙JS开发音频管理,导入media错误
4982浏览 • 1回复 已解决
SoundPool实现音频播放功能
2212浏览 • 1回复 待解决
怎么使用player播放网络音频呢?
4449浏览 • 1回复 待解决
OHAudio实现低时延音频录制和播放功能
2772浏览 • 1回复 待解决
鸿蒙 如何使用 player 播放网络音频
8611浏览 • 1回复 已解决
AudioRenderer播放器是什么关系?
4548浏览 • 1回复 待解决