0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenHarmony 3.2 Beta Audio:音频渲染

电子发烧友开源社区 来源:未知 2023-03-11 14:15 次阅读

一、简介

Audio是多媒体子系统中的一个重要模块,其涉及的内容比较多,有音频的渲染、音频的采集、音频的策略管理等。本文主要针对音频渲染功能进行详细地分析,并通过源码中提供的例子,对音频渲染进行流程的梳理。

二、目录

foundation/multimedia/audio_framework

audio_framework
├── frameworks
│  ├── js             #js 接口
│  │  └── napi
│  │    └── audio_renderer   #audio_renderer NAPI接口
│  │      ├── include
│  │      │  ├── audio_renderer_callback_napi.h
│  │      │  ├── renderer_data_request_callback_napi.h
│  │      │  ├── renderer_period_position_callback_napi.h
│  │      │  └── renderer_position_callback_napi.h
│  │      └── src
│  │        ├── audio_renderer_callback_napi.cpp
│  │        ├── audio_renderer_napi.cpp
│  │        ├── renderer_data_request_callback_napi.cpp
│  │        ├── renderer_period_position_callback_napi.cpp
│  │        └── renderer_position_callback_napi.cpp
│  └── native           #native 接口
│    └── audiorenderer
│      ├── BUILD.gn
│      ├── include
│      │  ├── audio_renderer_private.h
│      │  └── audio_renderer_proxy_obj.h
│      ├── src
│      │  ├── audio_renderer.cpp
│      │  └── audio_renderer_proxy_obj.cpp
│      └── test
│        └── example
│          └── audio_renderer_test.cpp
├── interfaces
│  ├── inner_api          #native实现的接口
│  │  └── native
│  │    └── audiorenderer    #audio渲染本地实现的接口定义
│  │      └── include
│  │        └── audio_renderer.h
│  └── kits            #js调用的接口
│    └── js
│      └── audio_renderer   #audio渲染NAPI接口的定义
│        └── include
│          └── audio_renderer_napi.h
└── services            #服务端
  └── audio_service
    ├── BUILD.gn
    ├── client         #IPC调用中的proxy端
    │  ├── include
    │  │  ├── audio_manager_proxy.h
    │  │  ├── audio_service_client.h
    │  └── src
    │    ├── audio_manager_proxy.cpp
    │    ├── audio_service_client.cpp
    └── server         #IPC调用中的server端
      ├── include
      │  └── audio_server.h
      └── src
        ├── audio_manager_stub.cpp
        └── audio_server.cpp

(左右移动查看全部内容)

三、音频渲染总体流程

8946c0e8-bfd2-11ed-bfe3-dac502259ad0.png

四、Native接口使用

在OpenAtom OpenHarmony(以下简称“OpenHarmony”)系统中,音频模块提供了功能测试代码,本文选取了其中的音频渲染例子作为切入点来进行介绍,例子采用的是对wav格式的音频文件进行渲染。wav格式的音频文件是wav头文件和音频的原始数据,不需要进行数据解码,所以音频渲染直接对原始数据进行操作,文件路径为:foundation/multimedia/audio_framework/frameworks/native/audiorenderer/test/example/audio_renderer_test.cpp

bool TestPlayback(int argc, char *argv[]) const
{
    FILE* wavFile = fopen(path, "rb");
    //读取wav文件头信息
    size_t bytesRead = fread(&wavHeader, 1, headerSize, wavFile);


    //设置AudioRenderer参数
    AudioRendererOptions rendererOptions = {};
    rendererOptions.streamInfo.encoding = AudioEncodingType::ENCODING_PCM;
    rendererOptions.streamInfo.samplingRate = static_cast(wavHeader.SamplesPerSec);
    rendererOptions.streamInfo.format = GetSampleFormat(wavHeader.bitsPerSample);
    rendererOptions.streamInfo.channels = static_cast(wavHeader.NumOfChan);
    rendererOptions.rendererInfo.contentType = contentType;
    rendererOptions.rendererInfo.streamUsage = streamUsage;
    rendererOptions.rendererInfo.rendererFlags = 0;


    //创建AudioRender实例
    unique_ptr audioRenderer = AudioRenderer::Create(rendererOptions);


    shared_ptr cb1 = make_shared();
    //设置音频渲染回调
    ret = audioRenderer->SetRendererCallback(cb1);


    //InitRender方法主要调用了audioRenderer实例的Start方法,启动音频渲染
if(!InitRender(audioRenderer)) {
AUDIO_ERR_LOG("AudioRendererTest: Init render failed");
fclose(wavFile);
      return false;
}


    //StartRender方法主要是读取wavFile文件的数据,然后通过调用audioRenderer实例的Write方法进行播放
if(!StartRender(audioRenderer, wavFile)) {
AUDIO_ERR_LOG("AudioRendererTest: Start render failed");
fclose(wavFile);
      return false;
}


    //停止渲染
if(!audioRenderer->Stop()) {
AUDIO_ERR_LOG("AudioRendererTest: Stop failed");
}


    //释放渲染
if(!audioRenderer->Release()) {
AUDIO_ERR_LOG("AudioRendererTest: Release failed");
}


    //关闭wavFile
fclose(wavFile);
    return true;
}

(左右移动查看全部内容)

首先读取wav文件,通过读取到wav文件的头信息对AudioRendererOptions相关的参数进行设置,包括编码格式、采样率、采样格式、通道数等。根据AudioRendererOptions设置的参数来创建AudioRenderer实例(实际上是AudioRendererPrivate),后续的音频渲染主要是通过AudioRenderer实例进行。创建完成后,调用AudioRenderer的Start方法,启动音频渲染。启动后,通过AudioRenderer实例的Write方法,将数据写入,音频数据会被播放。

五、调用流程

895ca62e-bfd2-11ed-bfe3-dac502259ad0.png

1、创建AudioRenderer

std::unique_ptrAudioRenderer::Create(const std::string cachePath,
  const AudioRendererOptions &rendererOptions, const AppInfo &appInfo)
{
  ContentType contentType = rendererOptions.rendererInfo.contentType;


  StreamUsage streamUsage = rendererOptions.rendererInfo.streamUsage;


  AudioStreamType audioStreamType = AudioStream::GetStreamType(contentType, streamUsage);
  auto audioRenderer = std::make_unique(audioStreamType, appInfo);
  if (!cachePath.empty()) {
    AUDIO_DEBUG_LOG("Set application cache path");
    audioRenderer->SetApplicationCachePath(cachePath);
  }


  audioRenderer->rendererInfo_.contentType = contentType;
  audioRenderer->rendererInfo_.streamUsage = streamUsage;
  audioRenderer->rendererInfo_.rendererFlags = rendererOptions.rendererInfo.rendererFlags;


  AudioRendererParams params;
  params.sampleFormat = rendererOptions.streamInfo.format;
  params.sampleRate = rendererOptions.streamInfo.samplingRate;
  params.channelCount = rendererOptions.streamInfo.channels;
  params.encodingType = rendererOptions.streamInfo.encoding;


  if (audioRenderer->SetParams(params) != SUCCESS) {
    AUDIO_ERR_LOG("SetParams failed in renderer");
    audioRenderer = nullptr;
    return nullptr;
  }


  return audioRenderer;
}

(左右移动查看全部内容)

首先通过AudioStream的GetStreamType方法获取音频流的类型,根据音频流类型创建AudioRendererPrivate对象,AudioRendererPrivate是AudioRenderer的子类。紧接着对audioRenderer进行参数设置,其中包括采样格式、采样率、通道数、编码格式。设置完成后返回创建的AudioRendererPrivate实例。

2、设置回调

int32_t AudioRendererPrivate::SetRendererCallback(const std::shared_ptr &callback)
{
  RendererState state = GetStatus();
  if (state == RENDERER_NEW || state == RENDERER_RELEASED) {
    return ERR_ILLEGAL_STATE;
  }
  if (callback == nullptr) {
    return ERR_INVALID_PARAM;
  }


  // Save reference for interrupt callback
  if (audioInterruptCallback_ == nullptr) {
    return ERROR;
  }
  std::shared_ptr cbInterrupt =
    std::static_pointer_cast(audioInterruptCallback_);
  cbInterrupt->SaveCallback(callback);


  // Save and Set reference for stream callback. Order is important here.
  if (audioStreamCallback_ == nullptr) {
    audioStreamCallback_ = std::make_shared();
    if (audioStreamCallback_ == nullptr) {
      return ERROR;
    }
  }
  std::shared_ptr cbStream =
std::static_pointer_cast(audioStreamCallback_);
  cbStream->SaveCallback(callback);
  (void)audioStream_->SetStreamCallback(audioStreamCallback_);


  return SUCCESS;
}

(左右移动查看全部内容)

参数传入的回调主要涉及到两个方面:一方面是AudioInterruptCallbackImpl中设置了我们传入的渲染回调,另一方面是AudioStreamCallbackRenderer中也设置了渲染回调。

3、启动渲染

bool AudioRendererPrivate::Start(StateChangeCmdType cmdType) const
{
  AUDIO_INFO_LOG("AudioRenderer::Start");
  RendererState state = GetStatus();


  AudioInterrupt audioInterrupt;
  switch (mode_) {
    case InterruptMode:
      audioInterrupt = sharedInterrupt_;
      break;
    case InterruptMode:
      audioInterrupt = audioInterrupt_;
      break;
    default:
      break;
  }
  AUDIO_INFO_LOG("AudioRenderer: %{public}d, streamType: %{public}d, sessionID: %{public}d",
    mode_, audioInterrupt.streamType, audioInterrupt.sessionID);


  if (audioInterrupt.streamType == STREAM_DEFAULT || audioInterrupt.sessionID == INVALID_SESSION_ID) {
    return false;
  }


  int32_t ret = AudioPolicyManager::GetInstance().ActivateAudioInterrupt(audioInterrupt);
  if (ret != 0) {
    AUDIO_ERR_LOG("AudioRendererPrivate::ActivateAudioInterrupt Failed");
    return false;
  }


  return audioStream_->StartAudioStream(cmdType);
}

(左右移动查看全部内容)

AudioPolicyManager::GetInstance().ActivateAudioInterrupt这个操作主要是根据AudioInterrupt来进行音频中断的激活,这里涉及了音频策略相关的内容,后续会专门出关于音频策略的文章进行分析。这个方法的核心是通过调用AudioStream的StartAudioStream方法来启动音频流。

bool AudioStream::StartAudioStream(StateChangeCmdType cmdType)
{
  int32_t ret = StartStream(cmdType);


  resetTime_ = true;
  int32_t retCode = clock_gettime(CLOCK_MONOTONIC, &baseTimestamp_);


  if (renderMode_ == RENDER_MODE_CALLBACK) {
    isReadyToWrite_ = true;
    writeThread_ = std::make_unique<std::thread>(&AudioStream::WriteCbTheadLoop, this);
  } else if (captureMode_ == CAPTURE_MODE_CALLBACK) {
    isReadyToRead_ = true;
    readThread_ = std::make_unique<std::thread>(&AudioStream::ReadCbThreadLoop, this);
  }


  isFirstRead_ = true;
  isFirstWrite_ = true;
  state_ = RUNNING;
  AUDIO_INFO_LOG("StartAudioStream SUCCESS");


  if (audioStreamTracker_) {
    AUDIO_DEBUG_LOG("AudioStream:Calling Update tracker for Running");
    audioStreamTracker_->UpdateTracker(sessionId_, state_, rendererInfo_, capturerInfo_);
  }
  return true;
}

(左右移动查看全部内容)

AudioStream的StartAudioStream主要的工作是调用StartStream方法,StartStream方法是AudioServiceClient类中的方法。AudioServiceClient类是AudioStream的父类。接下来看一下AudioServiceClient的StartStream方法。

int32_t AudioServiceClient::StartStream(StateChangeCmdType cmdType)
{
  int error;
  lock_guardlockdata(dataMutex);
  pa_operation *operation = nullptr;


  pa_threaded_mainloop_lock(mainLoop);


  pa_stream_state_t state = pa_stream_get_state(paStream);


  streamCmdStatus = 0;
  stateChangeCmdType_ = cmdType;
  operation = pa_stream_cork(paStream, 0, PAStreamStartSuccessCb, (void *)this);


  while (pa_operation_get_state(operation) == PA_OPERATION_RUNNING) {
    pa_threaded_mainloop_wait(mainLoop);
  }
  pa_operation_unref(operation);
  pa_threaded_mainloop_unlock(mainLoop);


  if (!streamCmdStatus) {
    AUDIO_ERR_LOG("Stream Start Failed");
    ResetPAAudioClient();
    return AUDIO_CLIENT_START_STREAM_ERR;
  } else {
    AUDIO_INFO_LOG("Stream Started Successfully");
    return AUDIO_CLIENT_SUCCESS;
  }
}

(左右移动查看全部内容)

StartStream方法中主要是调用了pulseaudio库的pa_stream_cork方法进行流启动,后续就调用到了pulseaudio库中了。pulseaudio库我们暂且不分析。

4、写入数据

int32_t AudioRendererPrivate::Write(uint8_t *buffer, size_t bufferSize)
{
  return audioStream_->Write(buffer, bufferSize);
}

(左右移动查看全部内容)

通过调用AudioStream的Write方式实现功能,接下来看一下AudioStream的Write方法。

size_t AudioStream::Write(uint8_t *buffer, size_t buffer_size)
{
  int32_t writeError;
  StreamBuffer stream;
  stream.buffer = buffer;
  stream.bufferLen = buffer_size;
  isWriteInProgress_ = true;


  if (isFirstWrite_) {
    if (RenderPrebuf(stream.bufferLen)) {
      return ERR_WRITE_FAILED;
    }
    isFirstWrite_ = false;
  }


  size_t bytesWritten = WriteStream(stream, writeError);
  isWriteInProgress_ = false;
  if (writeError != 0) {
    AUDIO_ERR_LOG("WriteStream fail,writeError:%{public}d", writeError);
    return ERR_WRITE_FAILED;
  }
  return bytesWritten;
}

(左右移动查看全部内容)

Write方法中分成两个阶段,首次写数据,先调用RenderPrebuf方法,将preBuf_的数据写入后再调用WriteStream进行音频数据的写入。

size_t AudioServiceClient::WriteStream(const StreamBuffer &stream, int32_t &pError)
{


  size_t cachedLen = WriteToAudioCache(stream);
  if (!acache.isFull) {
    pError = error;
    return cachedLen;
  }


  pa_threaded_mainloop_lock(mainLoop);




  const uint8_t *buffer = acache.buffer.get();
  size_t length = acache.totalCacheSize;


  error = PaWriteStream(buffer, length);
  acache.readIndex += acache.totalCacheSize;
  acache.isFull = false;


  if (!error && (length >= 0) && !acache.isFull) {
    uint8_t *cacheBuffer = acache.buffer.get();
    uint32_t offset = acache.readIndex;
    uint32_t size = (acache.writeIndex - acache.readIndex);
    if (size > 0) {
      if (memcpy_s(cacheBuffer, acache.totalCacheSize, cacheBuffer + offset, size)) {
        AUDIO_ERR_LOG("Update cache failed");
        pa_threaded_mainloop_unlock(mainLoop);
        pError = AUDIO_CLIENT_WRITE_STREAM_ERR;
        return cachedLen;
      }
      AUDIO_INFO_LOG("rearranging the audio cache");
    }
    acache.readIndex = 0;
    acache.writeIndex = 0;


    if (cachedLen < stream.bufferLen) {
      StreamBuffer str;
      str.buffer = stream.buffer + cachedLen;
      str.bufferLen = stream.bufferLen - cachedLen;
      AUDIO_DEBUG_LOG("writing pending data to audio cache: %{public}d", str.bufferLen);
      cachedLen += WriteToAudioCache(str);
    }
  }


  pa_threaded_mainloop_unlock(mainLoop);
  pError = error;
  return cachedLen;
}

(左右移动查看全部内容)

WriteStream方法不是直接调用pulseaudio库的写入方法,而是通过WriteToAudioCache方法将数据写入缓存中,如果缓存没有写满则直接返回,不会进入下面的流程,只有当缓存写满后,才会调用下面的PaWriteStream方法。该方法涉及对pulseaudio库写入操作的调用,所以缓存的目的是避免对pulseaudio库频繁地做IO操作,提高了效率。

六、总结

本文主要对OpenHarmony 3.2 Beta多媒体子系统的音频渲染模块进行介绍,首先梳理了Audio Render的整体流程,然后对几个核心的方法进行代码的分析。整体的流程主要通过pulseaudio库启动流,然后通过pulseaudio库的pa_stream_write方法进行数据的写入,最后播放出音频数据。

音频渲染主要分为以下几个层次:

  1. AudioRenderer的创建,实际创建的是它的子类AudioRendererPrivate实例。

  2. 通过AudioRendererPrivate设置渲染的回调。

  3. 启动渲染,这一部分代码最终会调用到pulseaudio库中,相当于启动了pulseaudio的流。

  4. 通过pulseaudio库的pa_stream_write方法将数据写入设备,进行播放。


更多热点文章阅读
  • OS内核及视窗分论坛详解之OpenHarmony 3D显示支持
  • 应用模型开发指南上新介绍
  • 技术构筑万物智联,第一届OpenHarmony技术峰会圆满举行
  • OpenHarmony L1(3.0)串口功能开发
  • 小白指南:手把手教你用低代码开发一个应用页面

提示:本文由电子发烧友论坛发布,转载请注明来源。如需社区合作及入群交流,请添加微信EEFans0806,或者发邮箱liuyong@huaqiu.com。


原文标题:OpenHarmony 3.2 Beta Audio:音频渲染

文章出处:【微信公众号:电子发烧友开源社区】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 电子发烧友
    +关注

    关注

    33

    文章

    549

    浏览量

    32938
  • 开源社区
    +关注

    关注

    0

    文章

    94

    浏览量

    406

原文标题:OpenHarmony 3.2 Beta Audio:音频渲染

文章出处:【微信号:HarmonyOS_Community,微信公众号:电子发烧友开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    请问cc3200 audio boosterpack音频采集是不是底噪很大?

    基于TLV320AIC3254的音频开发办,我烧入wifi_audio_app例程(例程中关掉板载咪头输入,并将音量调到最大),另两入输入接口没有接音频信号,但是板子一直吱吱吱的响,是板子本身底噪就这么大吗?
    发表于 10-25 06:28

    TPS6595 Audio Codec输出音频偶发混入7Khz杂波是怎么回事?

    主芯片是DM3730, 音频使用的是TPS65950的Audio 外设。 DM3730使用MCBSP输出8Khz音频数据,通过I2C设置 TPS65950相关寄存器。 采用Audio
    发表于 10-15 07:08

    HarmonyOS NEXT Developer Beta1中的Kit

    管理服务)、Network Kit(网络服务)等。 媒体相关Kit开放能力:Audio Kit(音频服务)、Media Library Kit(媒体文件管理服务)等。 图形相关Kit开放能力
    发表于 06-26 10:47

    使用提供的esp_audio_codec 的库组件时,不能将AAC音频解码回PCM音频,为什么?

    使用提供的esp_audio_codec 的库组件时,能够将PCM音频编码为AAC音频,但是不能将AAC音频解码回PCM音频,是为什么导致的
    发表于 06-05 06:39

    鸿蒙开发接口媒体:【@ohos.multimedia.audio (音频管理)】

    音频管理提供管理音频的一些基础能力,包括对音频音量、音频设备的管理,以及对音频数据的采集和渲染
    的头像 发表于 05-31 09:53 2311次阅读
    鸿蒙开发接口媒体:【@ohos.multimedia.<b class='flag-5'>audio</b> (<b class='flag-5'>音频</b>管理)】

    【RTC程序设计:实时音视频权威指南】音频采集与渲染

    在进行视频的采集与渲染的同时,我们还需要对音频进行实时的采集和渲染。对于rtc来说,音频的实时性和流畅性更加重要。 声音是由于物体在空气中振动而产生的压力波,声波的存在依赖于空气介质,
    发表于 04-28 21:00

    【开源鸿蒙】下载OpenHarmony 4.1 Release源代码

    本文介绍了如何下载开源鸿蒙(OpenHarmony)操作系统 4.1 Release版本的源代码,该方法同样可以用于下载OpenHarmony最新开发版本(master分支)或者4.0 Release、3.2 Release等发
    的头像 发表于 04-27 23:16 853次阅读
    【开源鸿蒙】下载<b class='flag-5'>OpenHarmony</b> 4.1 Release源代码

    鸿蒙ArkUI开发学习:【渲染控制语法】

    ArkUI开发框架是一套构建 HarmonyOS / OpenHarmony 应用界面的声明式UI开发框架,它支持程序使用 `if/else` 条件渲染, `ForEach` 循环渲染以及 `LazyForEach` 懒加载
    的头像 发表于 04-09 16:40 915次阅读
    鸿蒙ArkUI开发学习:【<b class='flag-5'>渲染</b>控制语法】

    润开鸿基于OpenHarmony的全场景应用开发实训平台通过兼容性测评

    近日,江苏润开鸿数字科技有限公司(以下简称“润开鸿”)基于OpenHarmony的全场景应用开发实训平台通过OpenHarmony3.2.Release版本兼容性测评,为高校开展
    的头像 发表于 01-20 08:02 513次阅读
    润开鸿基于<b class='flag-5'>OpenHarmony</b>的全场景应用开发实训平台通过兼容性测评

    蓝牙midi和蓝牙音频或者蓝牙audio有什么区别呢

    蓝牙midi和蓝牙音频或者蓝牙audio有什么区别呢 首先这里分为三个概念,也就是什么是蓝牙?什么是蓝牙midi?什么是蓝牙音频audio? 1、什么是蓝牙,这个就不用赘述了,大家
    的头像 发表于 01-09 15:22 1138次阅读
    蓝牙midi和蓝牙<b class='flag-5'>音频</b>或者蓝牙<b class='flag-5'>audio</b>有什么区别呢

    OpenHarmony Sheet 表格渲染引擎

    基于 Canvas 实现的高性能 Excel 表格引擎组件 [OpenHarmonySheet]。 由于大部分前端项目渲染层是使用框架根据排版模型树结构逐层渲染的,整棵渲染树也是与排版
    发表于 01-05 16:32

    OpenHarmony开源GPU库Mesa3D适配说明

    本文档主要讲解在OpenHarmony中,Mesa3D的适配方法及原理说明。 环境说明: OHOS版本: 适用3.2-Beta3及以上 内核版本: linux-5.10 硬件环境
    发表于 12-25 11:38

    搭载KaihongOS的高动态人形机器人“夸父”通过OpenHarmony 3.2 Release版本兼容性测评

    OpenHarmony”)3.2 Release版本兼容性测评并获颁兼容性证书 。这体现了深圳开鸿数字产业发展有限公司(以下简称”深开鸿“)OpenHarmony生 态建设能力和在新兴行业领域
    的头像 发表于 12-20 09:45 466次阅读
    搭载KaihongOS的高动态人形机器人“夸父”通过<b class='flag-5'>OpenHarmony</b> <b class='flag-5'>3.2</b> Release版本兼容性测评

    高动态人形机器人“夸父”通过OpenHarmony 3.2 Release版本兼容性测评

    近日, 搭载KaihongOS的“夸父”人形机器人通过OpenAtom OpenHarmony(以下简称“OpenHarmony”)3.2 Release版本兼容性测评并获颁兼容性证书 。这体现了
    发表于 12-20 09:31

    搭载KaihongOS的高动态人形机器人“夸父”通过OpenHarmony3.2 Release版本兼容性测评

      近日,搭载KaihongOS的国内首款可跳跃、可适应多地形行走的开源鸿蒙人形机器人通过OpenAtom OpenHarmony(以下简称“OpenHarmony”)3.2 Release版本
    的头像 发表于 12-07 18:15 532次阅读