标签:webp onpause 著作权 默认 ext func 应该 ati 说话
HTML5中和Web Speech相关的API实际上有两类,一类是“语音识别(Speech Recognition)”,另外一个就是“语音合成(Speech Synthesis)”,这两个名词听上去很高大上,实际上指的分别是“语音转文字”,和“文字变语音”。
而本文要介绍的就是这里的“语音合成-文字变语音”。为什么称为“合成”呢?比方说你Siri发音“你好,世界!” 实际上是把“你”、“好”、“世”、“界”这4个字的读音给合并在一起,因此,称为“语音合成”。
“语音识别”和“语音合成”看上去像是正反两方面,应该带有镜面气质,实际上,至少从兼容性来看,两者并无法直接对等。“语音识别(Speech Recognition)”目前的就Chrome浏览器和Opera浏览器默认支持,但是,“语音合成(Speech Synthesis)”的兼容性要好上太多了Chrome,FF,Edge,Safari等等都是支持的。
var newRecognition = webkitSpeechRecognition();
newRecognition.continuous = true;
// 开启
newRecognition.start();
// 停止
newRecognition.stop();
newRecognition.onresult = function(event) {
console.log(event);
}
除了result事件外,还有其他一些事件,例如,soundstart、speechstart、error等。
先从最简单的例子说起,如果想让浏览器读出“你好,世界!”的声音,可以下面的JS代码:
var utterThis = new window.SpeechSynthesisUtterance(‘你好,世界!‘);
window.speechSynthesis.speak(utterThis);
没错,只需要这么一点代码就足够了,大家可以在自己浏览器的控制台里面运行上面两行代码,看看有没有读出声音。
上面代码出现了两个长长的对象,SpeechSynthesisUtterance
和speechSynthesis
,就是语音合成Speech Synthesis API的核心。
首先是SpeechSynthesisUtterance
对象,主要用来构建语音合成实例,例如上面代码中的实例对象utterThis
。我们可以直接在构建的时候就把要读的文字内容写进去:
var utterThis = new window.SpeechSynthesisUtterance(‘你好,世界!‘);
又或者是使用实例对象的一些属性,包括:
text
– 要合成的文字内容,字符串。lang
– 使用的语言,字符串, 例如:"zh-cn"
voiceURI
– 指定希望使用的声音和服务,字符串。volume
– 声音的音量,区间范围是0
到1
,默认是1
。rate
– 语速,数值,默认值是1
,范围是0.1
到10
,表示语速的倍数,例如2
表示正常语速的两倍。pitch
– 表示说话的音高,数值,范围从0
(最小)到2
(最大)。默认值为1
。因此上面的代码也可以写作:
var utterThis = new window.SpeechSynthesisUtterance();
utterThis.text = ‘你好,世界!‘;
不仅如此,该实例对象还暴露了一些方法:
onstart
– 语音合成开始时候的回调。onpause
– 语音合成暂停时候的回调。onresume
– 语音合成重新开始时候的回调。onend
– 语音合成结束时候的回调。接下来是speechSynthesis
对象,主要作用是触发行为,例如读,停,还原等:
speak()
– 只能接收SpeechSynthesisUtterance
作为唯一的参数,作用是读合成的话语。
stop()
– 立即终止合成过程。
pause()
– 暂停合成过程。
resume()
– 重新开始合成过程。
getVoices
– 此方法不接受任何参数,用来返回浏览器支持的语音包列表,是个数组,例如,在我的电脑下,Firefox浏览器返回的语言包是两个:
而在chrome浏览器下,数量就很惊人了:
虽然数量很多,是有种给人中看不中用的感觉,为什么这么说呢!在我的chrome浏览器下,不知道为什么,不会读任何声音,但是同样的demo见面,公司的电脑就可以,我后来仔细查了一下,有可能(20%可能性)是我家里的电脑win7版本是阉割版,没有安装或配置TTS引擎。
手机Safari浏览器也不会读。
其中,17是普通话大陆:
另外,getVoices
的获取是个异步的过程,因此,你可以直接在控制台输入,speechSynthesis.getVoices()
返回的是一个空数组,没关系,多试几次,或者搞个定时器之类的。
对于盲人或弱视用户,往往会借助一些辅助设备或者软件访问我们的网页,其原理是通过触摸或定位某些元素发出声音,来让用户感知内容。
有了语音合成Speech Synthesis API,对于这类用户,以及开发人员自己,都会带来一定的便利性。
HTML5语音合成Speech Synthesis API简介
标签:webp onpause 著作权 默认 ext func 应该 ati 说话
原文地址:https://www.cnblogs.com/cangqinglang/p/12119185.html