iOS 18のAI機能は全てをデバイス上で処理する、メリットとデメリットも

当サイトの記事には広告が含まれます。

Ios18 generativeAI

日本時間 2024年6月11日より開催されるAppleのイベントWWDC 24(Worldwide Developers Conference 2024)では、iPhoneをはじめとするApple製品向けの最新バージョンのOSが発表されます。

昨年のWWDC 23では、ヘッドセットのVision Proの発表が行われましたが、今年のWWDC 24で注目となるのは、iOS 18を含めたAppleのAI戦略です。

iOS 18に導入されるAI機能については、従来のAIのようにクラウドサーバーで処理を行うタイプではなく、内蔵されているApple Aチップで処理を行うタイプになると言われています。これについては、BloombergのMark Gurman氏は自身のニュースレターでも言及しています。

「Appleの大規模言語モデルには、新しい機能を強化するソフトウェアであるクラウド処理コンポーネントが存在しない。」

デバイス上で処理できる最大のメリットは「情報のプライバシーが保護される」という点です。サーバーに情報が送信されないため、生の情報が漏れる心配はありません。Appleのプライバシーポリシー的にも、これはかなり重要なポイントとなります。

その一方で、処理にマシンパワーが必要となるので、搭載されているチップによっては処理に時間がかかることや、大規模言語モデルをローカルに保存するためにストレージが消費すること、情報のアップデートがOSのアップデートに左右されるといったデメリットもあります。

iOS 18で導入されるAI機能については、検索機能のSpotlight、音声アシスタントのSiri、音楽アプリのApple Music、WebブラウザのSafari、メッセージ、ヘルスケア、OfficeアプリのNumbersやPages、KeynoteなどApple純正アプリの多くに新しくAI機能が導入されるといわれ、具体的な機能として、メッセージアプリなどでテキストの自動生成、メッセージアプリSiriの質問に対する回答能力の向上、Apple Musicでおすすめ楽曲の提案などがあると予想されています。

生成AIとして、GoogleのGeminiやOpen AIのGPTとの提携、中国向けにはBaiduとの提携も交渉中と伝えられていますが、iOS 18に導入されるかどうかはわかりません。これらのAIなら、iOSに組み込まれなくてもブラウザやアプリから利用すればいいので、ぶっちゃけどっちでもいいよという感じがあります。

関連するエントリー

PR

U-NEXT