Android音频开发(3):如何播放一帧音频

CalE06 3年前
   <p> </p>    <p>本文重点关注如何在Android平台上播放一帧音频数据。阅读本文之前,建议先读一下 <a href="http://www.open-open.com/lib/view/open1462747926629.html">《Android音频开发(1):基础知识》</a> ,因为音频开发过程中,经常要涉及到这些基础知识,掌握了这些重要的概念后,开发过程中的很多参数和流程就会更加容易理解。</p>    <p>Android SDK 提供了3套音频播放的API,分别是:MediaPlayer,SoundPool,AudioTrack,关于它们的区别可以看这篇文章: <a href="/misc/goto?guid=4959672705750854677" rel="nofollow,noindex">《Intro to the three Android Audio APIs》</a> ,简单来说,MediaPlayer 更加适合在后台长时间播放本地音乐文件或者在线的流式资源; SoundPool 则适合播放比较短的音频片段,比如游戏声音、按键声、铃声片段等等,它可以同时播放多个音频; 而 AudioTrack 则更接近底层,提供了非常强大的控制能力,支持低延迟播放,适合流媒体和VoIP语音电话等场景。</p>    <p>音频的开发,更广泛地应用不仅仅局限于播放本地文件或者音频片段,因此,本文重点关注如何利AudioTrack API 来播放音频数据(注意,使用AudioTrack播放的音频必须是解码后的PCM数据)。</p>    <h2>1. AudioTrack 的工作流程</h2>    <p>首先,我们了解一下 AudioTrack 的工作流程:</p>    <p>(1) 配置参数,初始化内部的音频播放缓冲区</p>    <p>(2) 开始播放</p>    <p>(3) 需要一个线程,不断地向 AudioTrack 的缓冲区“写入”音频数据,注意,这个过程一定要及时,否则就会出现“underrun”的错误,该错误在音频开发中比较常见,意味着应用层没有及时地“送入”音频数据,导致内部的音频播放缓冲区为空。</p>    <p>(4) 停止播放,释放资源</p>    <h2>2. AudioTrack 的参数配置</h2>    <p><img src="https://simg.open-open.com/show/fb9634ca04ddc4871d962e218accf98f.png"></p>    <p>上面是 AudioTrack 的构造函数原型,主要靠构造函数来配置相关的参数,下面一一解释(再次建议先阅读一下 <a href="http://www.open-open.com/lib/view/open1462747926629.html">《Android音频开发(1):基础知识》</a> ):</p>    <p>(1) streamType</p>    <p>这个参数代表着当前应用使用的哪一种音频管理策略,当系统有多个进程需要播放音频时,这个管理策略会决定最终的展现效果,该参数的可选的值以常量的形式定义在 AudioManager 类中,主要包括:</p>    <p>STREAM_VOCIE_CALL:电话声音</p>    <p>STREAM_SYSTEM:系统声音</p>    <p>STREAM_RING:铃声</p>    <p>STREAM_MUSCI:音乐声</p>    <p>STREAM_ALARM:警告声</p>    <p>STREAM_NOTIFICATION:通知声</p>    <p>(2) sampleRateInHz</p>    <p>采样率,从AudioTrack源码的“audioParamCheck”函数可以看到,这个采样率的取值范围必须在 4000Hz~192000Hz 之间。</p>    <p>(3) channelConfig</p>    <p>通道数的配置,可选的值以常量的形式定义在 AudioFormat 类中,常用的是 CHANNEL_IN_MONO(单通道),CHANNEL_IN_STEREO(双通道)</p>    <p>(4) audioFormat</p>    <p>这个参数是用来配置“数据位宽”的,可选的值也是以常量的形式定义在 AudioFormat 类中,常用的是 ENCODING_PCM_16BIT(16bit),ENCODING_PCM_8BIT(8bit),注意,前者是可以保证兼容所有Android手机的。</p>    <p>(5) bufferSizeInBytes</p>    <p>这个是最难理解又最重要的一个参数,它配置的是 AudioTrack 内部的音频缓冲区的大小,该缓冲区的值不能低于一帧“音频帧”(Frame)的大小,而前一篇文章介绍过,一帧音频帧的大小计算如下:</p>    <p>int size = 采样率 x 位宽 x 采样时间 x 通道数</p>    <p>采样时间一般取 2.5ms~120ms 之间,由厂商或者具体的应用决定,我们其实可以推断,每一帧的采样时间取得越短,产生的延时就应该会越小,当然,碎片化的数据也就会越多。</p>    <p>在Android开发中,AudioTrack 类提供了一个帮助你确定这个 bufferSizeInBytes 的函数,原型如下:</p>    <p>int getMinBufferSize(int sampleRateInHz, int channelConfig, int audioFormat);</p>    <p>不同的厂商的底层实现是不一样的,但无外乎就是根据上面的计算公式得到一帧的大小,音频缓冲区的大小则必须是一帧大小的2~N倍,有兴趣的朋友可以继续深入源码探究探究。</p>    <p>实际开发中,强烈建议由该函数计算出需要传入的 bufferSizeInBytes,而不是自己手动计算。</p>    <p>(6) mode</p>    <p>AudioTrack 提供了两种播放模式,一种是 static 方式,一种是 streaming 方式,前者需要一次性将所有的数据都写入播放缓冲区,简单高效,通常用于播放铃声、系统提醒的音频片段; 后者则是按照一定的时间间隔不间断地写入音频数据,理论上它可用于任何音频播放的场景。</p>    <p>可选的值以常量的形式定义在 AudioTrack 类中,一个是 MODE_STATIC,另一个是 MODE_STREAM,根据具体的应用传入对应的值即可。</p>    <h2>3. 示例代码</h2>    <p>我将 AudioTrack 类的接口简单封装了一下,提供了一个 AudioPlayer 类,可以到我的Github下载: <a href="/misc/goto?guid=4959672713556272596" rel="nofollow,noindex">https://github.com/Jhuster/Android/blob/master/Audio/AudioPlayer.java</a></p>    <p>这里也贴出来一份:</p>    <pre>  <code class="language-java">/*   *  COPYRIGHT NOTICE     *  Copyright (C) 2016, Jhuster <lujun.hust@gmail.com>   *  https://github.com/Jhuster/Android   *      *  @license under the Apache License, Version 2.0    *   *  @file    AudioPlayer.java   *     *  @version 1.0        *  @author  Jhuster   *  @date    2016/03/13       */  package com.jhuster.audiodemo;    import android.util.Log;  import android.media.AudioFormat;  import android.media.AudioManager;  import android.media.AudioTrack;    public class AudioPlayer {            private static final String TAG = "AudioPlayer";        private static final int DEFAULT_STREAM_TYPE = AudioManager.STREAM_MUSIC;      private static final int DEFAULT_SAMPLE_RATE = 44100;      private static final int DEFAULT_CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_STEREO;      private static final int DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;      private static final int DEFAULT_PLAY_MODE = AudioTrack.MODE_STREAM;                    private boolean mIsPlayStarted = false;      private int mMinBufferSize = 0;      private AudioTrack mAudioTrack;              public boolean startPlayer() {          return startPlayer(DEFAULT_STREAM_TYPE,DEFAULT_SAMPLE_RATE,DEFAULT_CHANNEL_CONFIG,DEFAULT_AUDIO_FORMAT);      }            public boolean startPlayer(int streamType, int sampleRateInHz, int channelConfig, int audioFormat) {                    if (mIsPlayStarted) {              Log.e(TAG, "Player already started !");              return false;          }                    mMinBufferSize = AudioTrack.getMinBufferSize(sampleRateInHz,channelConfig,audioFormat);          if (mMinBufferSize == AudioTrack.ERROR_BAD_VALUE) {              Log.e(TAG, "Invalid parameter !");              return false;          }          Log.d(TAG , "getMinBufferSize = "+mMinBufferSize+" bytes !");                    mAudioTrack = new AudioTrack(streamType,sampleRateInHz,channelConfig,audioFormat,mMinBufferSize,DEFAULT_PLAY_MODE);          if (mAudioTrack.getState() == AudioTrack.STATE_UNINITIALIZED) {              Log.e(TAG, "AudioTrack initialize fail !");              return false;          }                                mIsPlayStarted = true;                    Log.d(TAG, "Start audio player success !");                    return true;      }            public int getMinBufferSize() {          return mMinBufferSize;      }            public void stopPlayer() {                    if (!mIsPlayStarted) {              return;          }                    if (mAudioTrack.getPlayState() == AudioTrack.PLAYSTATE_PLAYING) {              mAudioTrack.stop();                                  }                    mAudioTrack.release();          mIsPlayStarted = false;                       Log.d(TAG, "Stop audio player success !");      }            public boolean play(byte[] audioData, int offsetInBytes, int sizeInBytes) {                    if (!mIsPlayStarted) {              Log.e(TAG, "Player not started !");              return false;          }                    if (sizeInBytes < mMinBufferSize) {              Log.e(TAG, "audio data is not enough !");              return false;          }                    if (mAudioTrack.write(audioData,offsetInBytes,sizeInBytes) != sizeInBytes) {                              Log.e(TAG, "Could not write all the samples to the audio device !");          }                                                                                                  mAudioTrack.play();                    Log.d(TAG , "OK, Played "+sizeInBytes+" bytes !");                    return true;      }  }</code></pre>    <h2>4. 小结</h2>    <p>关于如何在Android平台使用AudioTrack播放一帧音频数据就介绍到这儿了,文章中有不清楚的地方欢迎留言或者来信 lujun.hust@gmail.com 交流,或者关注我的新浪微博@卢_俊或者 微信公众号 @Jhuster 获取最新的文章和资讯。</p>    <p><img src="https://simg.open-open.com/show/c5f73d6522a6d04df3e90e616662dd9f.jpg"></p>    <p>来自: <a href="/misc/goto?guid=4959672713650358717" rel="nofollow">http://ticktick.blog.51cto.com/823160/1750593</a></p>