iPhoneのカメラは、長い間その最も重要な機能の1つでした。しかし、昨年末、Appleはカメラの重要性をさらに高めることを目的とした新しい機能、つまり視覚知能を追加しました。その後、iOS 18.4では、Appleはこの機能をさらに多くのiPhoneカメラにもたらしましたが、伝えられるところによると、始めたばかりです。

iOS 18.4のおかげで、視覚インテリジェンスが多くのiPhoneカメラをアップグレードしたばかりです

Visual Intelligenceは、iPhoneのカメラを利用するAI機能です。 Appleがそれを説明する方法は次のとおりです

ビジュアルインテリジェンスを使用して、周囲の場所やオブジェクトについてすばやく詳しく知ります。レストランやビジネスの詳細を調べてください。テキストを翻訳、要約、または読み上げます。植物や動物を特定します。もっと。

iOS 18.2で視覚インテリジェンスが最初に発売されたとき、カメラコントロールボタンを備えたiPhone専用でした。

つまり、4つのiPhone 16フラッグシップでのみ機能しました。

ビジュアルインテリジェンスiOS 18.2

しかし、iOS 18.4では、Appleは機能を次のように拡張しました。

  • iPhone 15 Pro
  • iPhone 15 Pro Max
  • iPhone 16e

これらのデバイスは、アクションボタン、ロック画面、またはコントロールセンターに視覚インテリジェンスを追加することにより、機能を使用できます。

この機能の拡張は、それ自体がすでにiOS 18.3に新しい機能を追加しているため、Appleがデバイスのカメラに「インテリジェンス」を追加することの始まりに過ぎません。

AirPodsとApple Watchのカメラは視覚インテリジェンスの拡張を継続します

AirPods Pro

Visual Intelligenceは今日、さまざまな有用な利点を提供します。

しかし、Appleの野望は明らかにはるかに大きいようです。

マークガーマンごと「Appleの視覚インテリジェンスの究極の計画は、iPhoneをはるかに超えています。」

彼は続けます:

同社は、私が数ヶ月間書いてきたカメラ装備のAirPodを含む、機能を将来のデバイスの中核に配置したいと考えています。途中で、AppleはOpenaiやGoogleのものではなく、視覚インテリジェンスを独自のAIモデルにシフトしたいと考えています。

しかし、AIのウェアラブルに対するAppleのビジョンはさらに進んでいます。同社は、カメラを含むApple Watchの新しいバージョンに取り組んでいます。将来のAirPodsと同様に、これはデバイスが外の世界を見て、AIを使用して関連情報を提供するのに役立ちます。

将来のAirPodsとApple Watchモデルの飼育カメラは、Appleの視覚知能計画と深く結びついているようです。

戦略は2つあります。

  1. iOS 18.3がしたように、時間の経過とともに視覚知能に新しい機能を追加する
  2. iOS 18.4がしたように、時間の経過とともに「インテリジェント」カメラをより多くのデバイスに持ち込みます

視覚インテリジェンスが今日役立つかどうかにかかわらず、Appleは機能を始めたばかりのようです。

数年後、おそらく視覚知能は、私たちのiPhoneだけでなく、多くのAppleデバイスの不可欠な部分になるでしょう。

今日のiPhoneで視覚インテリジェンスを使用していますか? Appleはそれを改善するために何をすべきですか?コメントでお知らせください。

最高のiPhoneアクセサリー

FTC:収入獲得自動車アフィリエイトリンクを使用しています。 もっと。

Source link