真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

ios開發(fā)語音輸入,ios開發(fā)語音輸入的軟件

蘋果手機(jī)輸入法如何擁有語音輸入功能,不要下其它輸入法。。。

開啟siri后就可以語音輸入了。

裕民ssl適用于網(wǎng)站、小程序/APP、API接口等需要進(jìn)行數(shù)據(jù)傳輸應(yīng)用場景,ssl證書未來市場廣闊!成為創(chuàng)新互聯(lián)公司的ssl證書銷售渠道,可以享受市場價(jià)格4-6折優(yōu)惠!如果有意向歡迎電話聯(lián)系或者加微信:028-86922220(備注:SSL證書合作)期待與您的合作!

具體步驟如下:

1、在桌面點(diǎn)擊進(jìn)入【設(shè)置】圖標(biāo)。

2、點(diǎn)擊【siri】進(jìn)入。

3、把【siri】的開關(guān)打開,然后點(diǎn)擊啟用siri。

4、點(diǎn)擊圖標(biāo),對著話筒說話就可以了。

iOS Speech框架 詳解

原文地址:

一、引言

? ? iOS10系統(tǒng)是一個(gè)較有突破性的系統(tǒng),其在Message,Notification等方面都開放了很多實(shí)用性的開發(fā)接口。本篇博客將主要探討iOS10中新引入的SpeechFramework框架。有個(gè)這個(gè)框架,開發(fā)者可以十分容易的為自己的App添加語音識別功能,不需要再依賴于其他第三方的語音識別服務(wù),并且,Apple的Siri應(yīng)用的強(qiáng)大也證明了Apple的語音服務(wù)是足夠強(qiáng)大的,不通過第三方,也大大增強(qiáng)了用戶的安全性。

二、SpeechFramework框架中的重要類

? ? SpeechFramework框架比較輕量級,其中的類并不十分冗雜,在學(xué)習(xí)SpeechFramework框架前,我們需要對其中類與類與類之間的關(guān)系有個(gè)大致的熟悉了解。

SFSpeechRecognizer:這個(gè)類是語音識別的操作類,用于語音識別用戶權(quán)限的申請,語言環(huán)境的設(shè)置,語音模式的設(shè)置以及向Apple服務(wù)發(fā)送語音識別的請求。

SFSpeechRecognitionTask:這個(gè)類是語音識別服務(wù)請求任務(wù)類,每一個(gè)語音識別請求都可以抽象為一個(gè)SFSpeechRecognitionTask實(shí)例,其中SFSpeechRecognitionTaskDelegate協(xié)議中約定了許多請求任務(wù)過程中的監(jiān)聽方法。

SFSpeechRecognitionRequest:語音識別請求類,需要通過其子類來進(jìn)行實(shí)例化。

SFSpeechURLRecognitionRequest:通過音頻URL來創(chuàng)建語音識別請求。

SFSpeechAudioBufferRecognitionRequest:通過音頻流來創(chuàng)建語音識別請求。

SFSpeechRecognitionResult:語音識別請求結(jié)果類。

SFTranscription:語音轉(zhuǎn)換后的信息類。

SFTranscriptionSegment:語音轉(zhuǎn)換中的音頻節(jié)點(diǎn)類。

三、申請用戶語音識別權(quán)限與進(jìn)行語音識別請求

? ? 開發(fā)者若要在自己的App中使用語音識別功能,需要獲取用戶的同意。首先需要在工程的Info.plist文件中添加一個(gè)Privacy-Speech Recognition Usage Description鍵,其實(shí)需要對應(yīng)一個(gè)String類型的值,這個(gè)值將會(huì)在系統(tǒng)獲取權(quán)限的警告框中顯示,Info.plist文件如下圖所示:

使用SFSpeechRecognize類的requestAuthorization方法來進(jìn)行用戶權(quán)限的申請,用戶的反饋結(jié)果會(huì)在這個(gè)方法的回調(diào)block中傳入,如下:

? //申請用戶語音識別權(quán)限

? [SFSpeechRecognizer requestAuthorization:^(SFSpeechRecognizerAuthorizationStatus status) {? ?

? }];

SFSpeechRecognizerAuthorzationStatus枚舉中定義了用戶的反饋結(jié)果,如下:

typedef NS_ENUM(NSInteger, SFSpeechRecognizerAuthorizationStatus) {

? ? //結(jié)果未知 用戶尚未進(jìn)行選擇

? ? SFSpeechRecognizerAuthorizationStatusNotDetermined,

? ? //用戶拒絕授權(quán)語音識別

? ? SFSpeechRecognizerAuthorizationStatusDenied,

? ? //設(shè)備不支持語音識別功能

? ? SFSpeechRecognizerAuthorizationStatusRestricted,

? ? //用戶授權(quán)語音識別

? ? SFSpeechRecognizerAuthorizationStatusAuthorized,

};

如果申請用戶語音識別權(quán)限成功,開發(fā)者可以通過SFSpeechRecognizer操作類來進(jìn)行語音識別請求,示例如下:

? ? //創(chuàng)建語音識別操作類對象

? ? SFSpeechRecognizer * rec = [[SFSpeechRecognizer alloc]init];

? ? //通過一個(gè)音頻路徑創(chuàng)建音頻識別請求

? ? SFSpeechRecognitionRequest * request = [[SFSpeechURLRecognitionRequest alloc]initWithURL:[[NSBundle mainBundle] URLForResource:@"7011" withExtension:@"m4a"]];

? ? //進(jìn)行請求

? ? [rec recognitionTaskWithRequest:request resultHandler:^(SFSpeechRecognitionResult * _Nullable result, NSError * _Nullable error) {

? ? ? ? //打印語音識別的結(jié)果字符串

? ? ? ? NSLog(@"%@",result.bestTranscription.formattedString);

? ? }];

四、深入SFSpeechRecognizer類

SFSpeechRecognizer類的主要作用是申請權(quán)限,配置參數(shù)與進(jìn)行語音識別請求。其中比較重要的屬性與方法如下:

//獲取當(dāng)前用戶權(quán)限狀態(tài)

+ (SFSpeechRecognizerAuthorizationStatus)authorizationStatus;

//申請語音識別用戶權(quán)限

+ (void)requestAuthorization:(void(^)(SFSpeechRecognizerAuthorizationStatus status))handler;

//獲取所支持的所有語言環(huán)境

+ (NSSetNSLocale * *)supportedLocales;

//初始化方法 需要注意 這個(gè)初始化方法將默認(rèn)以設(shè)備當(dāng)前的語言環(huán)境作為語音識別的語言環(huán)境

- (nullable instancetype)init;

//初始化方法 設(shè)置一個(gè)特定的語言環(huán)境

- (nullable instancetype)initWithLocale:(NSLocale *)locale NS_DESIGNATED_INITIALIZER;

//語音識別是否可用

@property (nonatomic, readonly, getter=isAvailable) BOOL available;

//語音識別操作類協(xié)議代理

@property (nonatomic, weak) idSFSpeechRecognizerDelegate delegate;

//設(shè)置語音識別的配置參數(shù) 需要注意 在每個(gè)語音識別請求中也有這樣一個(gè)屬性 這里設(shè)置將作為默認(rèn)值

//如果SFSpeechRecognitionRequest對象中也進(jìn)行了設(shè)置 則會(huì)覆蓋這里的值

/*

typedef NS_ENUM(NSInteger, SFSpeechRecognitionTaskHint) {

? ? SFSpeechRecognitionTaskHintUnspecified = 0,? ? // 無定義

? ? SFSpeechRecognitionTaskHintDictation = 1,? ? ? // 正常的聽寫風(fēng)格

? ? SFSpeechRecognitionTaskHintSearch = 2,? ? ? ? ? // 搜索風(fēng)格

? ? SFSpeechRecognitionTaskHintConfirmation = 3,? ? // 短語風(fēng)格

};

*/

@property (nonatomic) SFSpeechRecognitionTaskHint defaultTaskHint;

//使用回調(diào)Block的方式進(jìn)行語音識別請求 請求結(jié)果會(huì)在Block中傳入

- (SFSpeechRecognitionTask *)recognitionTaskWithRequest:(SFSpeechRecognitionRequest *)request

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? resultHandler:(void (^)(SFSpeechRecognitionResult * __nullable result, NSError * __nullable error))resultHandler;

//使用代理回調(diào)的方式進(jìn)行語音識別請求

- (SFSpeechRecognitionTask *)recognitionTaskWithRequest:(SFSpeechRecognitionRequest *)request

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? delegate:(id SFSpeechRecognitionTaskDelegate)delegate;

//設(shè)置請求所占用的任務(wù)隊(duì)列

@property (nonatomic, strong) NSOperationQueue *queue;

SFSpeechRecognizerDelegate協(xié)議中只約定了一個(gè)方法,如下:

//當(dāng)語音識別操作可用性發(fā)生改變時(shí)會(huì)被調(diào)用

- (void)speechRecognizer:(SFSpeechRecognizer *)speechRecognizer availabilityDidChange:(BOOL)available;

? ? 通過Block回調(diào)的方式進(jìn)行語音識別請求十分簡單,如果使用代理回調(diào)的方式,開發(fā)者需要實(shí)現(xiàn)SFSpeechRecognitionTaskDelegate協(xié)議中的相關(guān)方法,如下:

//當(dāng)開始檢測音頻源中的語音時(shí)首先調(diào)用此方法

- (void)speechRecognitionDidDetectSpeech:(SFSpeechRecognitionTask *)task;

//當(dāng)識別出一條可用的信息后 會(huì)調(diào)用

/*

需要注意,apple的語音識別服務(wù)會(huì)根據(jù)提供的音頻源識別出多個(gè)可能的結(jié)果 每有一條結(jié)果可用 都會(huì)調(diào)用此方法

*/

- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didHypothesizeTranscription:(SFTranscription *)transcription;

//當(dāng)識別完成所有可用的結(jié)果后調(diào)用

- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didFinishRecognition:(SFSpeechRecognitionResult *)recognitionResult;

//當(dāng)不再接受音頻輸入時(shí)調(diào)用 即開始處理語音識別任務(wù)時(shí)調(diào)用

- (void)speechRecognitionTaskFinishedReadingAudio:(SFSpeechRecognitionTask *)task;

//當(dāng)語音識別任務(wù)被取消時(shí)調(diào)用

- (void)speechRecognitionTaskWasCancelled:(SFSpeechRecognitionTask *)task;

//語音識別任務(wù)完成時(shí)被調(diào)用

- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didFinishSuccessfully:(BOOL)successfully;

SFSpeechRecognitionTask類中封裝了屬性和方法如下:

//此任務(wù)的當(dāng)前狀態(tài)

/*

typedef NS_ENUM(NSInteger, SFSpeechRecognitionTaskState) {

SFSpeechRecognitionTaskStateStarting = 0,? ? ? // 任務(wù)開始

SFSpeechRecognitionTaskStateRunning = 1,? ? ? ? // 任務(wù)正在運(yùn)行

SFSpeechRecognitionTaskStateFinishing = 2,? ? ? // 不在進(jìn)行音頻讀入 即將返回識別結(jié)果

SFSpeechRecognitionTaskStateCanceling = 3,? ? ? // 任務(wù)取消

SFSpeechRecognitionTaskStateCompleted = 4,? ? ? // 所有結(jié)果返回完成

};

*/

@property (nonatomic, readonly) SFSpeechRecognitionTaskState state;

//音頻輸入是否完成

@property (nonatomic, readonly, getter=isFinishing) BOOL finishing;

//手動(dòng)完成音頻輸入 不再接收音頻

- (void)finish;

//任務(wù)是否被取消

@property (nonatomic, readonly, getter=isCancelled) BOOL cancelled;

//手動(dòng)取消任務(wù)

- (void)cancel;

關(guān)于音頻識別請求類,除了可以使用SFSpeechURLRecognitionRequest類來進(jìn)行創(chuàng)建外,還可以使用SFSpeechAudioBufferRecognitionRequest類來進(jìn)行創(chuàng)建:

@interface SFSpeechAudioBufferRecognitionRequest : SFSpeechRecognitionRequest

@property (nonatomic, readonly) AVAudioFormat *nativeAudioFormat;

//拼接音頻流

- (void)appendAudioPCMBuffer:(AVAudioPCMBuffer *)audioPCMBuffer;

- (void)appendAudioSampleBuffer:(CMSampleBufferRef)sampleBuffer;

//完成輸入

- (void)endAudio;

@end

五、語音識別結(jié)果類SFSpeechRecognitionResult

? ? SFSpeechRecognitionResult類是語音識別結(jié)果的封裝,其中包含了許多套平行的識別信息,其每一份識別信息都有可信度屬性來描述其準(zhǔn)確程度。SFSpeechRecognitionResult類中屬性如下:

//識別到的多套語音轉(zhuǎn)換信息數(shù)組 其會(huì)按照準(zhǔn)確度進(jìn)行排序

@property (nonatomic, readonly, copy) NSArraySFTranscription * *transcriptions;

//準(zhǔn)確性最高的識別實(shí)例

@property (nonatomic, readonly, copy) SFTranscription *bestTranscription;

//是否已經(jīng)完成 如果YES 則所有所有識別信息都已經(jīng)獲取完成

@property (nonatomic, readonly, getter=isFinal) BOOL final;

SFSpeechRecognitionResult類只是語音識別結(jié)果的一個(gè)封裝,真正的識別信息定義在SFTranscription類中,SFTranscription類中屬性如下:

//完整的語音識別準(zhǔn)換后的文本信息字符串

@property (nonatomic, readonly, copy) NSString *formattedString;

//語音識別節(jié)點(diǎn)數(shù)組

@property (nonatomic, readonly, copy) NSArraySFTranscriptionSegment * *segments;

當(dāng)對一句完整的話進(jìn)行識別時(shí),Apple的語音識別服務(wù)實(shí)際上會(huì)把這句語音拆分成若干個(gè)音頻節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)可能為一個(gè)單詞,SFTranscription類中的segments屬性就存放這些節(jié)點(diǎn)。SFTranscriptionSegment類中定義的屬性如下:

//當(dāng)前節(jié)點(diǎn)識別后的文本信息

@property (nonatomic, readonly, copy) NSString *substring;

//當(dāng)前節(jié)點(diǎn)識別后的文本信息在整體識別語句中的位置

@property (nonatomic, readonly) NSRange substringRange;

//當(dāng)前節(jié)點(diǎn)的音頻時(shí)間戳

@property (nonatomic, readonly) NSTimeInterval timestamp;

//當(dāng)前節(jié)點(diǎn)音頻的持續(xù)時(shí)間

@property (nonatomic, readonly) NSTimeInterval duration;

//可信度/準(zhǔn)確度 0-1之間

@property (nonatomic, readonly) float confidence;

//關(guān)于此節(jié)點(diǎn)的其他可能的識別結(jié)果

@property (nonatomic, readonly) NSArrayNSString * *alternativeSubstrings;

溫馨提示:SpeechFramework框架在模擬器上運(yùn)行會(huì)出現(xiàn)異常情況,無法進(jìn)行語音識別請求。會(huì)報(bào)出kAFAssistantErrorDomain的錯(cuò)誤,還望有知道解決方案的朋友,給些建議,Thanks。

蘋果手機(jī)的鍵盤語音輸入在哪?

答:打開屏幕鍵盤后,iPhone鍵盤右下角的語音輸入小話筒,就是語音輸入了。

iphone語音輸入怎么設(shè)置

iPhone自帶語音輸入法是需要開啟siri后就能使用了,接下來給介紹兩種開啟開啟siri的操作:

方法一:

1、首先點(diǎn)擊設(shè)置,往下劃找到【通用】功能

2、然后在【通用】下面找到【鍵盤】

3、最后點(diǎn)擊【啟用聽寫】功能,就可以使用iPhone自帶語音輸入法了。

方法二:

另外一種方法非常的簡單,未開啟語言輸入的伙伴們直接信息輸入中點(diǎn)擊“語言輸入”圖標(biāo)開啟就好啦!具體操作如下:

直接打開信息輸入欄,點(diǎn)擊輸入法中的“語言輸入”圖標(biāo),就會(huì)彈出“啟用聽寫“提示,這時(shí)點(diǎn)擊啟用聽寫就好了。

蘋果手機(jī)輸入法怎么開啟語音輸入

iPhone手機(jī)使用語音輸入功能的方法:進(jìn)入【設(shè)置】-【通用】-【鍵盤】-【啟用聽寫】,輕點(diǎn)開啟。在任意文本輸入界面點(diǎn)擊iOS系統(tǒng)原生輸入法鍵盤上的麥克風(fēng)標(biāo)識即可使用。


網(wǎng)站欄目:ios開發(fā)語音輸入,ios開發(fā)語音輸入的軟件
當(dāng)前地址:http://weahome.cn/article/dsiihhs.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部