Apple Intelligence?Apple又要重新定義AI了?
本文引用地址:http://dyxdggzs.com/article/202406/459899.htm
又是一年一度的WWDC,而筆者也要來(lái)和各位一起分析一下,今年的WWDC蘋(píng)果又整出了什么“新活兒”。今年的WWDC長(cháng)達一個(gè)半小時(shí),主題和之前大眾猜測的一致,就是AI、AI、AI還是AI,從iPhone、iPad到Mac,無(wú)不被生成式AI覆蓋。橫空出世的Apple Intelligence,讓蘋(píng)果全系產(chǎn)品有了史詩(shī)級升級。但是,有趣的是,Apple的AI并不是傳統意義上的“Artificial Intelligence”,而是Apple自身重新定義了一個(gè)“Apple Intelligence”。我們都知道,Apple一向擅長(cháng)“定義”,從改變世界的“重新發(fā)明手機”到最近的Apple Vision Pro的“空間計算設備”。那么這一次,所謂的“蘋(píng)果牌AI”帶給我們的是驚喜還是驚嚇呢?
對于A(yíng)pple來(lái)說(shuō),AI的隱私安全是貫穿始終的重點(diǎn),因此對于A(yíng)pple Intelligence,Apple一直再強調這是一種部署在本地的AI,數據不會(huì )上傳。因此,又是Apple的傳統藝能,要想完整體驗Apple Intelligence的功能,那就得!加!錢(qián)!Apple Intelligence只支持運行在以下Apple Silicon M系列芯片和A17 Pro之上,也就是說(shuō),手機端只有iPhone 15 Pro系列能夠運行完整的本地Apple Intelligence功能。
了解到這點(diǎn)之后,我們在具體聊聊這一次的Apple Intelligence。開(kāi)始我們先總結一下,Apple Intelligence主要圍繞以下幾點(diǎn),語(yǔ)言、圖像、操作以及個(gè)性化語(yǔ)言理解能力。之后也和Apple爆出的新聞一致,Siri也終于全新升級,AI 隱私功能的新標準也不會(huì )缺席,以及Apple平臺整合了ChatGPT。
首先,我們來(lái)看看Apple Intelligence的語(yǔ)言部分。這一部分的能力就是目前各位最熟悉的大語(yǔ)言模型常用能力,它可以借助本地AI實(shí)現文本檢驗,優(yōu)化重寫(xiě),生成摘要信息等功能。例如,Writing Tools可以幫助用戶(hù)重寫(xiě)、校對和總結文本,在幾乎任何輸入位置都可用,包括郵件、備忘錄、Pages文稿和第三方App等等。Apple的本地AI的語(yǔ)義理解能力使得系統能夠整合多種信息,并從中提取關(guān)鍵信息。這些關(guān)鍵信息可以被突出顯示,甚至在鎖屏界面上進(jìn)行特別提醒。此外,AI還能生成自動(dòng)回復,為用戶(hù)提供便捷的交互體驗。對于這一部分的“新能力”,筆者認為這些功能在很多大型語(yǔ)言模型中已經(jīng)得到了實(shí)現,如GPT-3、BERT等。從這個(gè)角度來(lái)看,Apple AI的語(yǔ)言能力很可能給不了用戶(hù)太多的“驚喜”。但換一個(gè)角度,筆者認為我們依然能小小的期待一下Apple能否發(fā)揚自己的生態(tài)優(yōu)勢,來(lái)給用戶(hù)更好的AI體驗,Apple Intelligence可能會(huì )將這些功能與蘋(píng)果硬件、軟件和服務(wù)緊密結合,為用戶(hù)提供更加流暢、無(wú)縫的使用體驗。
之后,我們再來(lái)看看Apple Intelligence的圖像處理方面。同樣的,這也是之前無(wú)數AI大模型早已實(shí)現的能力,從目前來(lái)看,Apple似乎巧妙地把它融入了App生態(tài)之中。全新Image Playground,使用簡(jiǎn)單,并且直接內置在信息等多款 app 中,也可以作為獨立app使用,可讓用戶(hù)在幾秒內創(chuàng )作出有趣的圖像,而當用戶(hù)使用imessage聊天之時(shí)(國內真的有人用imessage聊天嗎?),聊天的時(shí)候可以快速生成的有趣的圖片,而且完全可以基于當前會(huì )話(huà)內容生成。當您拍攝完成照片之時(shí),Apple的AI也可以介入剔除畫(huà)面之中您不想要的要素了。筆者不知道當您看到這些功能的時(shí)候會(huì )想到什么,估計會(huì )有不少人都會(huì )有和筆者一樣的感受:“就這?”。
最后,我們再來(lái)看看Apple AI的個(gè)性化語(yǔ)言理解能力,這一部分的升級主要被應用于Siri之上。Siri終于可以識別設備屏幕上的內容了,而Siri的交互也變成了屏幕外邊緣處亮起柔光?,F在Siri能夠識別屏幕上的內容,并支持跨應用交互。例如,如果在聊天中提到了一個(gè)地址,Siri可以直接將該地址添加到通訊錄中相應聯(lián)系人的信息里。
Siri的智能化現在能夠完全基于用戶(hù)個(gè)人數據和設備端信息,它可以識別設備上各種應用中提到的信息,如信息、郵件等,并綜合這些信息來(lái)回答用戶(hù)的問(wèn)題。例如,用戶(hù)無(wú)需提供任何前置信息,直接詢(xún)問(wèn)Siri家人的航班到達時(shí)間,Siri就能給出答案。
Siri的屏幕識別和操作能力,正是利用了蘋(píng)果之前發(fā)布的ReALM技術(shù)。蘋(píng)果成功開(kāi)發(fā)了一個(gè)僅有80M參數的ReALM模型,它在特定AI任務(wù)處理上的效果甚至能夠超越GPT-4。蘋(píng)果的ReALM模型有四種不同參數規模,這些就是蘋(píng)果的大模型。這確實(shí)有些令人難以置信,因為它們的參數規格只有GPT模型的幾百分之一,卻在某些任務(wù)上取得了更好的成績(jì),單說(shuō)這一點(diǎn),Apple AI還真能給我們一點(diǎn)驚喜。
讓我們回到最開(kāi)始的問(wèn)題:Apple又要重新定義AI了?很顯然,蘋(píng)果并沒(méi)有再續改變手機的“iPhone時(shí)刻”,縱觀(guān)這次的WWDC,Apple的AI功能似乎并未帶來(lái)太多創(chuàng )新。但是,如果我們換一個(gè)方向來(lái)看,Apple的重點(diǎn)似乎是將AI模型部署到本地設備之中,這一點(diǎn)也許在未來(lái)真的尤為重要。
與微軟直接宣布的Phi-Silica不同,蘋(píng)果在發(fā)布會(huì )上并未透露任何有關(guān)本地設備搭載模型的詳細信息,無(wú)論是模型的型號還是參數量。盡管蘋(píng)果的研究團隊在今年3月14日發(fā)表的arXiv技術(shù)論文中介紹了MM1多模態(tài)大模型,但與Phi-3家族中最小的Phi-Silica僅有3B參數相比,MM1的參數量大了10倍。
現在A(yíng)pple Intelligence最終選擇的端側小模型,如果不是其他未發(fā)布的研究成果,很可能是MM1大模型的縮小版,具有更小的參數規模。蘋(píng)果在本次發(fā)布會(huì )上也宣布了與OpenAI的合作,因此不排除OpenAI為Apple Intelligence的端側小模型提供了技術(shù)支持。
然而,考慮到OpenAI與英偉達的緊密合作,其技術(shù)架構必然會(huì )基于CUDA進(jìn)行優(yōu)化和迭代,蘋(píng)果不太可能放棄使用自家投入多年研發(fā)的M系列芯片,而不是基于硬件架構和軟件生態(tài)來(lái)開(kāi)發(fā)自家的端側模型。畢竟,蘋(píng)果非常注重通過(guò)“軟硬一體”構建的優(yōu)秀體驗和產(chǎn)品壁壘。
隨著(zhù)微軟推出AI PC,蘋(píng)果也決定在設備本地部署一個(gè)可能相對較小的模型,未來(lái)我們可以預見(jiàn)將有更多的端側模型被集成到各種智能設備中。這些小模型有望滿(mǎn)足大多數用戶(hù)的需求,通過(guò)本地部署和本地計算的方式,為用戶(hù)提供快速響應且無(wú)需擔心算力成本的AI解決方案,這很可能是未來(lái)智能設備集成AI功能的主要趨勢。
當然,端側模型最終的效果如何,還需要通過(guò)大規模用戶(hù)的真實(shí)需求來(lái)進(jìn)行驗證。
評論