标签:style http color 使用 strong os
原文: http://www.raywenderlich.com/64623/make-narrated-book-using-avspeechsynthesizer-ios-7
随着 PageViewController 的引入,苹果让开发者们制作图书类app 更加轻松。不幸的是,对于生活在朝九晚五繁忙节奏中的人们来说,阅读也是一件奢侈的事情。为什么你不能在读一本小说的同时做其他事情呢?
在 Siri 刚开始出现的时候,苹果曾经用复杂的动态文本阅读将开发者拒之门外,但当iOS7 发布的时候,苹果终于放开了这扇大门。
在本教程中,你将制作一本故事书。这本书的每一页都会在显示文字的同时朗读文字中的内容。有声的阅读将让你的 app 在 iTunes 中显得与众不同,同时还保护了视力。有声书尤其受广播听众的喜爱,因为它允许人们在锻炼、烹饪或工作的同时进行“阅读”。
当你制作自己的有声书时, 你将学习到:
AVSpeechSynthesizer当然比不上真人语音,但它对于你将要开发的 app 来说,相对容易一些。
注意:关于如何用 Sprite Kit 开发iPad儿童书籍,请参考Tammy Coron 的教程: How to Create an Interactive Children’s Book for the iPad
开始:AVSpeechSynthesizer
首先,请下载 初始项目。进入NarratedBookUsingAVSpeechStarter 目录,双击 NarratedBookUsingAVSpeech.xcodeproj 以打开初始项目。
Build & run 。你将在模拟器中看到:书的内容是关于松鼠的童谣。虽然不是亚马逊买得最火的读物,但对于本教程来说足够了。向左滑动进行向后翻页,向右滑动则返回前一页。噢,它已经拥有了基本的“书”的功能,真是不错的开始。
理解机制
注意:教程的最后,会留给你几个习题。接下来一节将包括示例项目的一些内容,以便你能独立完成这些习题。如果你对这部分内容不感兴趣,请跳到下一节。
初始项目包括两个类:
1. Models: 用于存放书籍的内容,它是page 的集合。
2. Presentation: 将 models 展现到屏幕并响应用户动作(例如滑动手势)。
在你制作自己的图书时,理解这两个类的工作机制是很有必要的。打开RWTBook.h:
@interface RWTBook : NSObject //1 @property (nonatomic, copy, readonly) NSArray *pages; //2 + (instancetype)bookWithPages:(NSArray*)pages; //3 + (instancetype)testBook; @end |
RWTPage.h声明如下:
//1 extern NSString* const RWTPageAttributesKeyUtterances; extern NSString* const RWTPageAttributesKeyBackgroundImage; @interface RWTPage : NSObject //2 @property (nonatomic, strong, readonly) NSString *displayText; @property (nonatomic, strong, readonly) UIImage *backgroundImage; //3 + (instancetype)pageWithAttributes:(NSDictionary*)attributes; @end |
RWTPageViewController.m声明如下:
#pragma mark - Class Extension // 1 @interface RWTPageViewController () @property (nonatomic, strong) RWTBook *book; @property (nonatomic, assign) NSUInteger currentPageIndex; @end @implementation RWTPageViewController #pragma mark - Lifecycle // 2 - (void)viewDidLoad { [super viewDidLoad]; [self setupBook:[RWTBook testBook]]; UISwipeGestureRecognizer *swipeNext = [[UISwipeGestureRecognizer alloc] initWithTarget:self action:@selector(gotoNextPage)]; swipeNext.direction = UISwipeGestureRecognizerDirectionLeft; [self.view addGestureRecognizer:swipeNext]; UISwipeGestureRecognizer *swipePrevious = [[UISwipeGestureRecognizer alloc] initWithTarget:self action:@selector(gotoPreviousPage)]; swipePrevious.direction = UISwipeGestureRecognizerDirectionRight; [self.view addGestureRecognizer:swipePrevious]; } #pragma mark - Private // 3 - (RWTPage*)currentPage { return [self.book.pages objectAtIndex:self.currentPageIndex]; } // 4 - (void)setupBook:(RWTBook*)newBook { self.book = newBook; self.currentPageIndex = 0; [self setupForCurrentPage]; } // 5 - (void)setupForCurrentPage { self.pageTextLabel.text = [self currentPage].displayText; self.pageImageView.image = [self currentPage].backgroundImage; } // 6 - (void)gotoNextPage { if ([self.book.pages count] == 0 || self.currentPageIndex == [self.book.pages count] - 1) { return; } self.currentPageIndex += 1; [self setupForCurrentPage]; } // 7 - (void)gotoPreviousPage { if (self.currentPageIndex == 0) { return; } self.currentPageIndex -= 1; [self setupForCurrentPage]; } @end |
以上代码说明如下:
播放和停止!
这是一个很要命的问题。
打开RWTPageViewController.m,在#import "RWTPage.h" 下面加入:
@import AVFoundation; |
iOS 语音功能由 AVFoundation 框架提供,你必须导入这个框架。
提示: @import会导入并连接 AVFoundation 框架。关于 iOS7 中 @import 及相关的 O-C 语言新特性,请参考这篇文章What’sNew in Objective-C and Foundation in iOS 7。
在 currentPageIndex 属性声明之下加入:
@property (nonatomic, strong) AVSpeechSynthesizer *synthesizer; |
synthesizer 对象将用于朗读每一页中的文字。
可以将 ViewController 中定义的AVSpeechSynthesizer 对象想象成一个会说话的人。而 AVSpeechUtterance 则可以想象成一张小纸条,把纸条递给这个人,则他就会念出纸条上的字。
注意:一个 AVSpeechUtterance 可能是一个单词,比如“Whisky”,或者是一个完整的语句,比如“Whisky,frisky,hippidityhop”。
在 RWTPageViewController.m 的最后加入以下方法:
#pragma mark - Speech Management - (void)speakNextUtterance { AVSpeechUtterance *nextUtterance = [[AVSpeechUtterance alloc] initWithString:[self currentPage].displayText]; [self.synthesizer speakUtterance:nextUtterance]; } |
创建了一个 utterance 对象,然后告诉 synthesizer 去念出它。
然后实现这个方法:
- (void)startSpeaking { if (!self.synthesizer) { self.synthesizer = [[AVSpeechSynthesizer alloc] init]; } [self speakNextUtterance]; } |
这个方法负责初始化 synthesizer 属性(如果它未初始化的话)。然后调用speakNextUtterance 方法,开始朗读。
在 viewDidLoad 、gotoNextPage 和 gotoPreviousPage 方法的最后加上这行:
[self startSpeaking]; |
这样,当书一打开,或者用户前后翻页的时候,朗读就会开始。
Build & run,你会听到AVSpeechSynthesizer 发出的天籁之音。
注意:如果你什么也没听到,请检查 Mac 或者 iOS 设备的音量设置(看你是在什么地方运行这个 app 的)。你可以尝试着进行翻页看是不是能播放语音。
提示:如果你是在模拟器上运行程序, 可能控制台会输出一堆莫名其妙的错误信息。这只会在模拟器上出现,使用设备时则不会打印这些错误。
如果你听到了语音播放,请再次 Build & Run。这次,在第一页内容播放完之前,尝试向左滑动(向后翻页)。发现了什么?
synthesizer 只会在第一页念完之后才开始念下一页。这不是用户想要的结果,他们会想让第一页停止播放而第二页立即开始。这点小瑕疵对于一页内容比较短的童谣来说不成问题,但试想一下,如果每页的内容都很长的话会是什么效果……
如何使用 iOS 7 的 AVSpeechSynthesizer 制作有声书(1),布布扣,bubuko.com
如何使用 iOS 7 的 AVSpeechSynthesizer 制作有声书(1)
标签:style http color 使用 strong os
原文地址:http://blog.csdn.net/kmyhy/article/details/37696569