腾讯云语音识别实时语音识别_AI解决方案_同尘科技
Flutter SDK
SDK 以插件的方式封装了 Android 和 iOS 实时语音识别功能,提供 Flutter 版本的实时语音识别,本文介绍 SDK 的安装方法及示例。
开发环境
Dart >= 2.18.4Flutter >= 3.3.8Android API Level >= 16iOS >= 9.0
获取安装
请去 控制台 下载 SDK,SDK 内 asr_plugin 目录即为 Flutter 插件,插件内 example 目录下为 demo 示例。
接入指引
此插件仅支持Android和iOS两个平台且包含了平台相关的库,使用时请确保开发环境包含Android Studio及XCode否则集成时会出现编译问题1. 将项目中asr_plugin目录复制到自己的Flutter工程下2. 在自己项目的配置文件pubspec.yaml下添加依赖
asr_plugin: # 该路径根据asr_plugin存放路径改变 path: ../asr_plugin
3. 在需要使用到的页面,导入asr_plugin的依赖
import 'package:asr_plugin/asr_plugin.dart';
接口说明
接口示例代码为 demo 部分代码,完整代码请参考位于 example 里的 demo 示例。
ASRControllerConfig
配置相关参数用于生成 ASRController。参数:
int appID = 0; // 腾讯云 appID int projectID = 0; //腾讯云 projectID String secretID = ""; //腾讯云 secretID String secretKey = ""; // 腾讯云 projectKey
String engine_model_type = "16k_zh"; //设置引擎,不设置默认16k_zh int filter_dirty = 0; //是否过滤脏词,具体的取值见API文档的filter_dirty参数 int filter_modal = 0; //过滤语气词具体的取值见API文档的filter_modal参数 int filter_punc = 0; //过滤句末的句号具体的取值见API文档的filter_punc参数 int convert_num_mode = 1; //是否进行阿拉伯数字智能转换。具体的取值见API文档的convert_num_mode参数 String hotword_id = ""; //热词id。具体的取值见API文档的hotword_id参数 String customization_id = ""; //自学习模型id,详情见API文档 int vad_silence_time = 0; //语音断句检测阈值,详情见API文档 int needvad = 1; //人声切分,详情见API文档 int word_info = 0; //是否显示词级别时间戳,详情见API文档 int reinforce_hotword = 0; //热词增强功能,详情见API文档
bool is_compress = true; //是否开启音频压缩,开启后使用opus压缩传输数据 bool silence_detect = false; //静音检测功能,开启后检测到静音会停止识别 int silence_detect_duration = 5000; //静音检测时长,开启静音检测功能后生效 bool is_save_audio_file = false; //是否保存音频,仅对内置录音生效,格式为s16le,16000Hz,mono的pcm,开启后会通过NOTIFY类型的ASRData返回到上层,其中ASRData中info为以下的JSON格式{"type":"onAudioFile, "code": 0, "message": "audio file path"} String audio_file_path = ""; //is_save_audio_file为true时,会将音频保存在指定位置
方法:
Future build() async 创建ASRController
示例:
var _config = ASRControllerConfig()_config.filter_dirty = 1;_config.filter_modal = 0;_config.filter_punc = 0;var _controller = await _config.build();
ASRController
控制语音识别的流程及获取语音识别的结果。方法:
Stream recognize() async* 开始识别,通过监听Stream可以获得实时语音识别的相关数据Stream recognizeWithDataSource(Stream? source) async* 开始识别,可传入自定义数据源进行识别,有关数据源的要求参考自定义数据源stop() async 停止识别release() async 释放资源
示例:
try { if (_controller != null) { await _controller?.release(); } _controller = await _config.build(); setState(() { _btn_onclick = stopRecognize; }); await for (final val in _controller!.recognize()) { switch (val.type) { case ASRDataType.SLICE: case ASRDataType.SEGMENT: var id = val.id!; var res = val.res!; if (id >= _sentences.length) { for (var i = _sentences.length; i e).join(""); }); break; case ASRDataType.SUCCESS: setState(() { _btn_onclick = startRecognize; _result = val.result!; _sentences = []; }); break; } } } on ASRError catch (e) { setState(() { _btn_onclick = startRecognize; _result = "错误码:${e.code} \n错误信息: ${e.message} \n详细信息: ${e.resp}"; }); } catch (e) { log(e.toString()); setState(() { _btn_onclick = startRecognize; }); }}
ASRData
识别过程中返回的数据。参数:
ASRDataType type; //数据类型int? id; //句子的idString? res; //数据类型为SLICE和SEGMENT时返回部分识别结果String? result; // 数据类型SUCCESS时返回所有识别结果
ASRDataType
ASRData 数据类型。
enum ASRDataType { SLICE, SEGMENT, SUCCESS,}
ASRError
识别过程中的错误。参数:
int code; //错误码 iOS参考QCloudRealTimeClientErrCode Android参考ClientExceptionString message; //错误消息String? resp; //服务端返回的原始数据
自定义数据源
SDK 只负责对输入的语音进行识别,不会进行额外的处理。但调用者可以通过自定义数据源来实现对录音数据的处理(降噪,回声消除等)来满足相应的场景需求
自定义数据源需要数据以Stream
的方式传入到 SDK 且需要满足以下的要求
1. 采样数据格式仅支持单通道16000hz、16bit、小端的 pcm 数据流2. 采用数据需要每隔40ms向 stream 推入1280B的数据且数据格式需要满足条件1
对解决方案有疑惑?想了解解决方案收费? 联系解决方案专家
腾讯云限时活动1折起,即将结束: 马上收藏
同尘科技为腾讯云授权服务中心,购买腾讯云享受折上折,更有现金返利:同意关联,立享优惠
阿里云解决方案也看看?: 点击对比阿里云的解决方案
暂无评论,你要说点什么吗?