6月のAppleのWorldwide Developer Conferenceに先立ち、新しいレポートはAppleのAI戦略と、これらの機能をモバイルソフトウェアの次期メジャーリリースであるiOS 18にどのように統合する計画であるかを明らかにしている。
この問題の専門家であるマーク・ガーマン氏によると、アップルのアプローチは、ユーザーのプライバシーの保護を重視することで、AIの熾烈な競争の中で目立つことが可能になるという。 Google、Microsoft、OpenAI などのライバルは、会話型 AI や生成コンテンツ作成を強化する大規模言語モデルの進歩を大声で宣伝していますが、Appleはこの点に関しては比較的沈黙を保ってきた。
少なくとも公の場では。しかし舞台裏では、同社は独自の基礎的なAI技術を開発しましたコード名「AppleGPT」で知られています。AI インテリジェンスを多くのコア アプリケーションやサービスに導入します。
Appleはプライバシーの保護に全力を注ぐ
ただし、Apple では慣例として、実装は目立つはずです。ガーマン氏がブルームバーグに報じたように、「Apple は、生成 AI 機能を支えるアルゴリズムである大規模な言語モデルを開発しており、それがデバイスに完全に統合される兆候があります。これは、このテクノロジーがクラウドではなく iPhone 内のプロセッサによって強化されていることを意味します。»。
AI モデルをデバイス上でローカルに実行すると、パフォーマンス上の利点と、リモートサーバーへのリクエストのルーティングに伴う遅延を回避する、 そして重要なプライバシーとセキュリティの利点。これにより、Apple は競合他社のクラウドベース AI の取り組みを妨げてきた厄介なデータ収集の問題を回避できるようになります。ユーザーデータが iPhone から流出することはなく、漏洩の可能性を回避します。
そのトレードオフは、少なくとも当初は、Google や OpenAI などが強力なハードウェア上で作成した大規模なクラウド モデル アーキテクチャと比較して、AI 機能の強力さが劣る可能性があります。しかし、ガーマン氏は次のように述べています。Appleはテクノロジーが人々の日常生活にどのように役立つかを示すつもりだ» 最初から生のベンチマーク パフォーマンスを求めるのではなく。
それでは、今年後半に iOS 18 にはどのような AI ベースの機能が搭載される可能性があるのでしょうか?報告書によると、Pages や Keynote などのアプリのオートサマリーとオートコンプリートが検討中です、言語モデルを活用して、よりスマートな文章の提案と文書処理を実現します。報告書では次のことにも言及していますApple Music での音楽プレイリストの作成などの分野における同様の AI 支援機能。おそらくこれは私たちに思い出させるでしょうSpotifyも同様の機能を買収したばかりだ。
おそらく最も興味深いことは、Siri は AI のおかげで知能が向上し、恩恵を受ける可能性がある、Appleの音声アシスタントの進歩が何年も停滞していた後。間大規模な言語モデルと、テキストやメディア分析などの他の AI 機能の統合を通じて、自然言語をより深く理解します。、Siriのエクスペリエンスは完全に変わる可能性があります。
開発者と AppleCare サポート スタッフも、それぞれ改善されたコード補完ツールとカスタマー サポート ワークフローを通じて AI アップグレードのメリットを享受できます。
Appleの野心的なロードマップのさらなる証拠が、テキスト、画像、その他のメディアを解釈するためのマルチモーダル言語モデルなどの分野に焦点を当てた同社の最新の研究論文で明らかになった。プロジェクトの 1 つは、ユーザーが簡単な音声コマンドを使用してドキュメント、画像、ビデオを編集できるようにすることを目的としています。
もちろん、Apple の最初の AI プロジェクトの能力と堅牢性については疑問が残ります。いつものように、洗練された洗練されたエクスペリエンスを優先するという Apple の評判を考えると、これらの初期導入の取り組みはパフォーマンスよりも使いやすさを優先する可能性があります。明らかに、そのうちにさらに多くのことが分かるでしょう6 月 10 日に開催される WWDC 2024 カンファレンス。