欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

ios開發(fā)的框架,ios開發(fā)架構(gòu)設(shè)計(jì)

iOS開發(fā)之CoreLocaiton框架使用(指南針)

1.準(zhǔn)備一張指南針的圖片(下面圖片可以使用)

網(wǎng)站的建設(shè)創(chuàng)新互聯(lián)公司專注網(wǎng)站定制,經(jīng)驗(yàn)豐富,不做模板,主營網(wǎng)站定制開發(fā).小程序定制開發(fā),H5頁面制作!給你煥然一新的設(shè)計(jì)體驗(yàn)!已為酒樓設(shè)計(jì)等企業(yè)提供專業(yè)服務(wù)。

2.導(dǎo)入CoreLocation框架以及對(duì)應(yīng)的主頭文件 并且設(shè)置代理

3.懶加載創(chuàng)建CLLocationManager對(duì)象并設(shè)置代理

4. 調(diào)用方法, 開始獲取設(shè)備朝向? ?

5. 在對(duì)應(yīng)的代理方法中獲取設(shè)備朝向信息

剛剛,阿里開源 iOS 協(xié)程開發(fā)框架 coobjc!

阿里妹導(dǎo)讀:剛剛,阿里巴巴正式對(duì)外開源了基于 Apache 2.0 協(xié)議的協(xié)程開發(fā)框架 coobjc,開發(fā)者們可以在 Github 上自主下載。

coobjc是為iOS平臺(tái)打造的開源協(xié)程開發(fā)框架,支持Objective-C和Swift,同時(shí)提供了cokit庫為Foundation和UIKit中的部分API提供了 協(xié)程 化支持,本文將為大家詳細(xì)介紹coobjc的設(shè)計(jì)理念及核心優(yōu)勢(shì)。

從2008年第一個(gè)iOS版本發(fā)布至今的11年時(shí)間里,iOS的異步編程方式發(fā)展緩慢。

基于 Block 的異步編程回調(diào)是目前 iOS 使用最廣泛的異步編程方式,iOS 系統(tǒng)提供的 GCD 庫讓異步開發(fā)變得很簡單方便,但是基于這種編程方式的缺點(diǎn)也有很多,主要有以下幾點(diǎn):

針對(duì)多線程以及尤其引發(fā)的各種崩潰和性能問題,我們制定了很多編程規(guī)范、進(jìn)行了各種新人培訓(xùn),嘗試降低問題發(fā)生的概率,但是問題依然很嚴(yán)峻,多線程引發(fā)的問題占比并沒有明顯的下降,異步編程本來就是很復(fù)雜的事情,單靠規(guī)范和培訓(xùn)是難以從根本上解決問題的,需要有更加好的編程方式來解決。

上述問題在很多系統(tǒng)和語言開發(fā)中都可能會(huì)碰到,解決問題的標(biāo)準(zhǔn)方式就是使用協(xié)程,C#、Kotlin、Python、Javascript 等熱門語言均支持協(xié)程極其相關(guān)語法,使用這些語言的開發(fā)者可以很方便的使用協(xié)程及相關(guān)功能進(jìn)行異步編程。

2017 年的 C++ 標(biāo)準(zhǔn)開始支持協(xié)程,Swift5 中也包含了協(xié)程相關(guān)的標(biāo)準(zhǔn),從現(xiàn)在的發(fā)展趨勢(shì)看基于協(xié)程的全新的異步編程方式,是我們解決現(xiàn)有異步編程問題的有效的方式,但是蘋果基本已經(jīng)不會(huì)升級(jí) Objective-C 了,因此使用Objective-C的開發(fā)者是無法使用官方的協(xié)程能力的,而最新 Swift 的發(fā)布和推廣也還需要時(shí)日,為了讓廣大iOS開發(fā)者能快速享受到協(xié)程帶來的編程方式上的改變,手機(jī)淘寶架構(gòu)團(tuán)隊(duì)基于長期對(duì)系統(tǒng)底層庫和匯編的研究,通過匯編和C語言實(shí)現(xiàn)了支持 Objective-C 和 Swift 協(xié)程的完美解決方案 —— coobjc。

核心能力

內(nèi)置系統(tǒng)擴(kuò)展庫

coobjc設(shè)計(jì)

最底層是協(xié)程內(nèi)核,包含了棧切換的管理、協(xié)程調(diào)度器的實(shí)現(xiàn)、協(xié)程間通信channel的實(shí)現(xiàn)等。

中間層是基于協(xié)程的操作符的包裝,目前支持async/await、Generator、Actor等編程模型。

最上層是對(duì)系統(tǒng)庫的協(xié)程化擴(kuò)展,目前基本上覆蓋了Foundation和UIKit的所有IO和耗時(shí)方法。

核心實(shí)現(xiàn)原理

協(xié)程的核心思想是控制調(diào)用棧的主動(dòng)讓出和恢復(fù)。一般的協(xié)程實(shí)現(xiàn)都會(huì)提供兩個(gè)重要的操作:

我們基于線程的代碼執(zhí)行時(shí)候,是沒法做出暫停操作的,我們現(xiàn)在要做的事情就是要代碼執(zhí)行能夠暫停,還能夠再恢復(fù)。 基本上代碼執(zhí)行都是一種基于調(diào)用棧的模型,所以如果我們能把當(dāng)前調(diào)用棧上的狀態(tài)都保存下來,然后再能從緩存中恢復(fù),那我們就能夠?qū)崿F(xiàn)yield和 resume。

實(shí)現(xiàn)這樣操作有幾種方法呢?

上述第三種和第四種只是能過做到跳轉(zhuǎn),但是沒法保存調(diào)用棧上的狀態(tài),看起來基本上不能算是實(shí)現(xiàn)了協(xié)程,只能算做做demo,第五種除非官方支持,否則自行改寫編譯器通用性很差。而第一種方案的 ucontext 在iOS上是廢棄了的,不能使用。那么我們使用的是第二種方案,自己用匯編模擬一下 ucontext。

模擬ucontext的核心是通過getContext和setContext實(shí)現(xiàn)保存和恢復(fù)調(diào)用棧。需要熟悉不同CPU架構(gòu)下的調(diào)用約定(Calling Convention). 匯編實(shí)現(xiàn)就是要針對(duì)不同cpu實(shí)現(xiàn)一套,我們目前實(shí)現(xiàn)了 armv7、arm64、i386、x86_64,支持iPhone真機(jī)和模擬器。

說了這么多,還是看看代碼吧,我們從一個(gè)簡單的網(wǎng)絡(luò)請(qǐng)求加載圖片功能來看看coobjc到底是如何使用的。

下面是最普通的網(wǎng)絡(luò)請(qǐng)求的寫法:

下面是使用coobjc庫協(xié)程化改造后的代碼:

原本需要20行的代碼,通過coobjc協(xié)程化改造后,減少了一半,整個(gè)代碼邏輯和可讀性都更加好,這就是coobjc強(qiáng)大的能力,能把原本很復(fù)雜的異步代碼,通過協(xié)程化改造,轉(zhuǎn)變成邏輯簡潔的順序調(diào)用。

coobjc還有很多其他強(qiáng)大的能力,本文對(duì)于coobjc的實(shí)際使用就不過多介紹了,感興趣的朋友可以去官方github倉庫自行下載查看。

我們?cè)趇Phone7 iOS11.4.1的設(shè)備上使用協(xié)程和傳統(tǒng)多線程方式分別模擬高并發(fā)讀取數(shù)據(jù)的場景,下面是兩種方式得到的壓測(cè)數(shù)據(jù)。

從上面的表格我們可以看到使用在并發(fā)量很小的場景,由于多線程可以完全使用設(shè)備的計(jì)算核心,因此coobjc總耗時(shí)要比傳統(tǒng)多線程略高,但是由于整體耗時(shí)都很小,因此差異并不明顯,但是隨著并發(fā)量的增大,coobjc的優(yōu)勢(shì)開始逐漸體現(xiàn)出來,當(dāng)并發(fā)量超過1000以后,傳統(tǒng)多線程開始出現(xiàn)線程分配異常,而導(dǎo)致很多并發(fā)任務(wù)并沒有執(zhí)行,因此在上表中顯示的是大于20秒,實(shí)際是任務(wù)已經(jīng)無法正常執(zhí)行了,但是coobjc仍然可以正常運(yùn)行。

我們?cè)谑謾C(jī)淘寶這種超級(jí)App中嘗試了協(xié)程化改造,針對(duì)部分性能差的頁面,我們發(fā)現(xiàn)在滑動(dòng)過程中存在很多主線程IO調(diào)用、數(shù)據(jù)解析,導(dǎo)致幀率下降嚴(yán)重,通過引入coobjc,在不改變?cè)袠I(yè)務(wù)代碼的基礎(chǔ)上,通過全局hook部分IO、數(shù)據(jù)解析方法,即可讓原來在主線程中同步執(zhí)行的IO方法異步執(zhí)行,并且不影響原有的業(yè)務(wù)邏輯,通過測(cè)試驗(yàn)證,這樣的改造在低端機(jī)(iPhone6及以下的機(jī)器)上的幀率有20%左右的提升。

簡明

易用

清晰

性能

程序是寫來給人讀的,只會(huì)偶爾讓機(jī)器執(zhí)行一下。——Abelson and Sussman

基于協(xié)程實(shí)現(xiàn)的編程范式能夠幫助開發(fā)者編寫出更加優(yōu)美、健壯、可讀性更強(qiáng)的代碼。

協(xié)程可以幫助我們?cè)诰帉懖l(fā)代碼的過程中減少線程和鎖的使用,提升應(yīng)用的性能和穩(wěn)定性。

本文作者:淘寶技術(shù)

iOS開發(fā)——最簡單web容器化框架

既然要承載 web 頁面,一個(gè)原生的 WebView 必不可少。在 iOS 中,目前已經(jīng)有兩款高性能、功能齊全的 web 瀏覽器,UIWebView (=2.0)和 WKWebView(=7.0)。

當(dāng)然,兩種 web 瀏覽器選其一即可。網(wǎng)上有很多文章,包括我之前已經(jīng)發(fā)表的博文中,都介紹過這兩種瀏覽器,讀者可以根據(jù)自己的需要選擇。

就目前的情況看,UIWebView 發(fā)展了很多年,目前市面上大部分的 web 頁面也都支持這樣的瀏覽器,因此很多公司在選擇的時(shí)候都使用這個(gè),但是,我們知道,WKWebView 有太多改善前者的優(yōu)點(diǎn),而且也是蘋果官方提倡大家使用的,為了性能,為了更多的特性,建議初次搭建的朋友采用 WKWebView。

為了實(shí)現(xiàn) h5 與 native 之間的互相調(diào)用,我們需要在兩者之間架一層橋來實(shí)現(xiàn),關(guān)于 bridge,之前的文章也有介紹。

bridge 的功能包括:native 調(diào)用 h5,h5 回調(diào) native,h5 調(diào)用 native,native 回調(diào) h5。

有了 bridge,h5可以使用 native 支持的更多特性,native 可以獲取 h5 頁面加載的信息,也可以讓 web 頁面動(dòng)態(tài)執(zhí)行一些腳本做一些事。

總之,在 web 容器框架中,這個(gè) bridge 還是很有必要的。

嗯,這個(gè)是輔助項(xiàng),做了這一步可以進(jìn)一步提高 web 容器的加載性能,而且資源緩存到本地后可以做到不依賴網(wǎng)絡(luò),提高用戶體驗(yàn)。

通常有兩種做法,

UIWebView 使用簡單,而且現(xiàn)在用戶的手機(jī)性能也已經(jīng)不再是頁面展示性能的瓶頸,所以,這里介紹的依然采用 UIWebView 作為 web 瀏覽器。

WebViewJavascriptBridge 是一款非常強(qiáng)大的第三方開源 bridge 庫,同時(shí)支持 UIWebView 和 WKWebView。

git 地址

NJKWebViewProgress 是一款能使 UIWebview 顯示加載進(jìn)度的第三方開源框架,支持代理協(xié)議處理和 progressview 展示兩種功能。

git 地址

iOS Speech框架 詳解

原文地址:

一、引言

? ? iOS10系統(tǒng)是一個(gè)較有突破性的系統(tǒng),其在Message,Notification等方面都開放了很多實(shí)用性的開發(fā)接口。本篇博客將主要探討iOS10中新引入的SpeechFramework框架。有個(gè)這個(gè)框架,開發(fā)者可以十分容易的為自己的App添加語音識(shí)別功能,不需要再依賴于其他第三方的語音識(shí)別服務(wù),并且,Apple的Siri應(yīng)用的強(qiáng)大也證明了Apple的語音服務(wù)是足夠強(qiáng)大的,不通過第三方,也大大增強(qiáng)了用戶的安全性。

二、SpeechFramework框架中的重要類

? ? SpeechFramework框架比較輕量級(jí),其中的類并不十分冗雜,在學(xué)習(xí)SpeechFramework框架前,我們需要對(duì)其中類與類與類之間的關(guān)系有個(gè)大致的熟悉了解。

SFSpeechRecognizer:這個(gè)類是語音識(shí)別的操作類,用于語音識(shí)別用戶權(quán)限的申請(qǐng),語言環(huán)境的設(shè)置,語音模式的設(shè)置以及向Apple服務(wù)發(fā)送語音識(shí)別的請(qǐng)求。

SFSpeechRecognitionTask:這個(gè)類是語音識(shí)別服務(wù)請(qǐng)求任務(wù)類,每一個(gè)語音識(shí)別請(qǐng)求都可以抽象為一個(gè)SFSpeechRecognitionTask實(shí)例,其中SFSpeechRecognitionTaskDelegate協(xié)議中約定了許多請(qǐng)求任務(wù)過程中的監(jiān)聽方法。

SFSpeechRecognitionRequest:語音識(shí)別請(qǐng)求類,需要通過其子類來進(jìn)行實(shí)例化。

SFSpeechURLRecognitionRequest:通過音頻URL來創(chuàng)建語音識(shí)別請(qǐng)求。

SFSpeechAudioBufferRecognitionRequest:通過音頻流來創(chuàng)建語音識(shí)別請(qǐng)求。

SFSpeechRecognitionResult:語音識(shí)別請(qǐng)求結(jié)果類。

SFTranscription:語音轉(zhuǎn)換后的信息類。

SFTranscriptionSegment:語音轉(zhuǎn)換中的音頻節(jié)點(diǎn)類。

三、申請(qǐng)用戶語音識(shí)別權(quán)限與進(jìn)行語音識(shí)別請(qǐng)求

? ? 開發(fā)者若要在自己的App中使用語音識(shí)別功能,需要獲取用戶的同意。首先需要在工程的Info.plist文件中添加一個(gè)Privacy-Speech Recognition Usage Description鍵,其實(shí)需要對(duì)應(yīng)一個(gè)String類型的值,這個(gè)值將會(huì)在系統(tǒng)獲取權(quán)限的警告框中顯示,Info.plist文件如下圖所示:

使用SFSpeechRecognize類的requestAuthorization方法來進(jìn)行用戶權(quán)限的申請(qǐng),用戶的反饋結(jié)果會(huì)在這個(gè)方法的回調(diào)block中傳入,如下:

? //申請(qǐng)用戶語音識(shí)別權(quán)限

? [SFSpeechRecognizer requestAuthorization:^(SFSpeechRecognizerAuthorizationStatus status) {? ?

? }];

SFSpeechRecognizerAuthorzationStatus枚舉中定義了用戶的反饋結(jié)果,如下:

typedef NS_ENUM(NSInteger, SFSpeechRecognizerAuthorizationStatus) {

? ? //結(jié)果未知 用戶尚未進(jìn)行選擇

? ? SFSpeechRecognizerAuthorizationStatusNotDetermined,

? ? //用戶拒絕授權(quán)語音識(shí)別

? ? SFSpeechRecognizerAuthorizationStatusDenied,

? ? //設(shè)備不支持語音識(shí)別功能

? ? SFSpeechRecognizerAuthorizationStatusRestricted,

? ? //用戶授權(quán)語音識(shí)別

? ? SFSpeechRecognizerAuthorizationStatusAuthorized,

};

如果申請(qǐng)用戶語音識(shí)別權(quán)限成功,開發(fā)者可以通過SFSpeechRecognizer操作類來進(jìn)行語音識(shí)別請(qǐng)求,示例如下:

? ? //創(chuàng)建語音識(shí)別操作類對(duì)象

? ? SFSpeechRecognizer * rec = [[SFSpeechRecognizer alloc]init];

? ? //通過一個(gè)音頻路徑創(chuàng)建音頻識(shí)別請(qǐng)求

? ? SFSpeechRecognitionRequest * request = [[SFSpeechURLRecognitionRequest alloc]initWithURL:[[NSBundle mainBundle] URLForResource:@"7011" withExtension:@"m4a"]];

? ? //進(jìn)行請(qǐng)求

? ? [rec recognitionTaskWithRequest:request resultHandler:^(SFSpeechRecognitionResult * _Nullable result, NSError * _Nullable error) {

? ? ? ? //打印語音識(shí)別的結(jié)果字符串

? ? ? ? NSLog(@"%@",result.bestTranscription.formattedString);

? ? }];

四、深入SFSpeechRecognizer類

SFSpeechRecognizer類的主要作用是申請(qǐng)權(quán)限,配置參數(shù)與進(jìn)行語音識(shí)別請(qǐng)求。其中比較重要的屬性與方法如下:

//獲取當(dāng)前用戶權(quán)限狀態(tài)

+ (SFSpeechRecognizerAuthorizationStatus)authorizationStatus;

//申請(qǐng)語音識(shí)別用戶權(quán)限

+ (void)requestAuthorization:(void(^)(SFSpeechRecognizerAuthorizationStatus status))handler;

//獲取所支持的所有語言環(huán)境

+ (NSSetNSLocale * *)supportedLocales;

//初始化方法 需要注意 這個(gè)初始化方法將默認(rèn)以設(shè)備當(dāng)前的語言環(huán)境作為語音識(shí)別的語言環(huán)境

- (nullable instancetype)init;

//初始化方法 設(shè)置一個(gè)特定的語言環(huán)境

- (nullable instancetype)initWithLocale:(NSLocale *)locale NS_DESIGNATED_INITIALIZER;

//語音識(shí)別是否可用

@property (nonatomic, readonly, getter=isAvailable) BOOL available;

//語音識(shí)別操作類協(xié)議代理

@property (nonatomic, weak) idSFSpeechRecognizerDelegate delegate;

//設(shè)置語音識(shí)別的配置參數(shù) 需要注意 在每個(gè)語音識(shí)別請(qǐng)求中也有這樣一個(gè)屬性 這里設(shè)置將作為默認(rèn)值

//如果SFSpeechRecognitionRequest對(duì)象中也進(jìn)行了設(shè)置 則會(huì)覆蓋這里的值

/*

typedef NS_ENUM(NSInteger, SFSpeechRecognitionTaskHint) {

? ? SFSpeechRecognitionTaskHintUnspecified = 0,? ? // 無定義

? ? SFSpeechRecognitionTaskHintDictation = 1,? ? ? // 正常的聽寫風(fēng)格

? ? SFSpeechRecognitionTaskHintSearch = 2,? ? ? ? ? // 搜索風(fēng)格

? ? SFSpeechRecognitionTaskHintConfirmation = 3,? ? // 短語風(fēng)格

};

*/

@property (nonatomic) SFSpeechRecognitionTaskHint defaultTaskHint;

//使用回調(diào)Block的方式進(jìn)行語音識(shí)別請(qǐng)求 請(qǐng)求結(jié)果會(huì)在Block中傳入

- (SFSpeechRecognitionTask *)recognitionTaskWithRequest:(SFSpeechRecognitionRequest *)request

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? resultHandler:(void (^)(SFSpeechRecognitionResult * __nullable result, NSError * __nullable error))resultHandler;

//使用代理回調(diào)的方式進(jìn)行語音識(shí)別請(qǐng)求

- (SFSpeechRecognitionTask *)recognitionTaskWithRequest:(SFSpeechRecognitionRequest *)request

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? delegate:(id SFSpeechRecognitionTaskDelegate)delegate;

//設(shè)置請(qǐng)求所占用的任務(wù)隊(duì)列

@property (nonatomic, strong) NSOperationQueue *queue;

SFSpeechRecognizerDelegate協(xié)議中只約定了一個(gè)方法,如下:

//當(dāng)語音識(shí)別操作可用性發(fā)生改變時(shí)會(huì)被調(diào)用

- (void)speechRecognizer:(SFSpeechRecognizer *)speechRecognizer availabilityDidChange:(BOOL)available;

? ? 通過Block回調(diào)的方式進(jìn)行語音識(shí)別請(qǐng)求十分簡單,如果使用代理回調(diào)的方式,開發(fā)者需要實(shí)現(xiàn)SFSpeechRecognitionTaskDelegate協(xié)議中的相關(guān)方法,如下:

//當(dāng)開始檢測(cè)音頻源中的語音時(shí)首先調(diào)用此方法

- (void)speechRecognitionDidDetectSpeech:(SFSpeechRecognitionTask *)task;

//當(dāng)識(shí)別出一條可用的信息后 會(huì)調(diào)用

/*

需要注意,apple的語音識(shí)別服務(wù)會(huì)根據(jù)提供的音頻源識(shí)別出多個(gè)可能的結(jié)果 每有一條結(jié)果可用 都會(huì)調(diào)用此方法

*/

- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didHypothesizeTranscription:(SFTranscription *)transcription;

//當(dāng)識(shí)別完成所有可用的結(jié)果后調(diào)用

- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didFinishRecognition:(SFSpeechRecognitionResult *)recognitionResult;

//當(dāng)不再接受音頻輸入時(shí)調(diào)用 即開始處理語音識(shí)別任務(wù)時(shí)調(diào)用

- (void)speechRecognitionTaskFinishedReadingAudio:(SFSpeechRecognitionTask *)task;

//當(dāng)語音識(shí)別任務(wù)被取消時(shí)調(diào)用

- (void)speechRecognitionTaskWasCancelled:(SFSpeechRecognitionTask *)task;

//語音識(shí)別任務(wù)完成時(shí)被調(diào)用

- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didFinishSuccessfully:(BOOL)successfully;

SFSpeechRecognitionTask類中封裝了屬性和方法如下:

//此任務(wù)的當(dāng)前狀態(tài)

/*

typedef NS_ENUM(NSInteger, SFSpeechRecognitionTaskState) {

SFSpeechRecognitionTaskStateStarting = 0,? ? ? // 任務(wù)開始

SFSpeechRecognitionTaskStateRunning = 1,? ? ? ? // 任務(wù)正在運(yùn)行

SFSpeechRecognitionTaskStateFinishing = 2,? ? ? // 不在進(jìn)行音頻讀入 即將返回識(shí)別結(jié)果

SFSpeechRecognitionTaskStateCanceling = 3,? ? ? // 任務(wù)取消

SFSpeechRecognitionTaskStateCompleted = 4,? ? ? // 所有結(jié)果返回完成

};

*/

@property (nonatomic, readonly) SFSpeechRecognitionTaskState state;

//音頻輸入是否完成

@property (nonatomic, readonly, getter=isFinishing) BOOL finishing;

//手動(dòng)完成音頻輸入 不再接收音頻

- (void)finish;

//任務(wù)是否被取消

@property (nonatomic, readonly, getter=isCancelled) BOOL cancelled;

//手動(dòng)取消任務(wù)

- (void)cancel;

關(guān)于音頻識(shí)別請(qǐng)求類,除了可以使用SFSpeechURLRecognitionRequest類來進(jìn)行創(chuàng)建外,還可以使用SFSpeechAudioBufferRecognitionRequest類來進(jìn)行創(chuàng)建:

@interface SFSpeechAudioBufferRecognitionRequest : SFSpeechRecognitionRequest

@property (nonatomic, readonly) AVAudioFormat *nativeAudioFormat;

//拼接音頻流

- (void)appendAudioPCMBuffer:(AVAudioPCMBuffer *)audioPCMBuffer;

- (void)appendAudioSampleBuffer:(CMSampleBufferRef)sampleBuffer;

//完成輸入

- (void)endAudio;

@end

五、語音識(shí)別結(jié)果類SFSpeechRecognitionResult

? ? SFSpeechRecognitionResult類是語音識(shí)別結(jié)果的封裝,其中包含了許多套平行的識(shí)別信息,其每一份識(shí)別信息都有可信度屬性來描述其準(zhǔn)確程度。SFSpeechRecognitionResult類中屬性如下:

//識(shí)別到的多套語音轉(zhuǎn)換信息數(shù)組 其會(huì)按照準(zhǔn)確度進(jìn)行排序

@property (nonatomic, readonly, copy) NSArraySFTranscription * *transcriptions;

//準(zhǔn)確性最高的識(shí)別實(shí)例

@property (nonatomic, readonly, copy) SFTranscription *bestTranscription;

//是否已經(jīng)完成 如果YES 則所有所有識(shí)別信息都已經(jīng)獲取完成

@property (nonatomic, readonly, getter=isFinal) BOOL final;

SFSpeechRecognitionResult類只是語音識(shí)別結(jié)果的一個(gè)封裝,真正的識(shí)別信息定義在SFTranscription類中,SFTranscription類中屬性如下:

//完整的語音識(shí)別準(zhǔn)換后的文本信息字符串

@property (nonatomic, readonly, copy) NSString *formattedString;

//語音識(shí)別節(jié)點(diǎn)數(shù)組

@property (nonatomic, readonly, copy) NSArraySFTranscriptionSegment * *segments;

當(dāng)對(duì)一句完整的話進(jìn)行識(shí)別時(shí),Apple的語音識(shí)別服務(wù)實(shí)際上會(huì)把這句語音拆分成若干個(gè)音頻節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)可能為一個(gè)單詞,SFTranscription類中的segments屬性就存放這些節(jié)點(diǎn)。SFTranscriptionSegment類中定義的屬性如下:

//當(dāng)前節(jié)點(diǎn)識(shí)別后的文本信息

@property (nonatomic, readonly, copy) NSString *substring;

//當(dāng)前節(jié)點(diǎn)識(shí)別后的文本信息在整體識(shí)別語句中的位置

@property (nonatomic, readonly) NSRange substringRange;

//當(dāng)前節(jié)點(diǎn)的音頻時(shí)間戳

@property (nonatomic, readonly) NSTimeInterval timestamp;

//當(dāng)前節(jié)點(diǎn)音頻的持續(xù)時(shí)間

@property (nonatomic, readonly) NSTimeInterval duration;

//可信度/準(zhǔn)確度 0-1之間

@property (nonatomic, readonly) float confidence;

//關(guān)于此節(jié)點(diǎn)的其他可能的識(shí)別結(jié)果

@property (nonatomic, readonly) NSArrayNSString * *alternativeSubstrings;

溫馨提示:SpeechFramework框架在模擬器上運(yùn)行會(huì)出現(xiàn)異常情況,無法進(jìn)行語音識(shí)別請(qǐng)求。會(huì)報(bào)出kAFAssistantErrorDomain的錯(cuò)誤,還望有知道解決方案的朋友,給些建議,Thanks。

網(wǎng)站題目:ios開發(fā)的框架,ios開發(fā)架構(gòu)設(shè)計(jì)
網(wǎng)頁URL:http://chinadenli.net/article10/dsehsdo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供軟件開發(fā)定制網(wǎng)站企業(yè)建站響應(yīng)式網(wǎng)站ChatGPT網(wǎng)站收錄

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站制作