iPhoneのカメラは、長い間その最も重要な機能の1つでした。しかし、昨年末、Appleはカメラの重要性をさらに高めることを目的とした新しい機能、つまり視覚知能を追加しました。その後、iOS 18.4では、Appleはこの機能をさらに多くのiPhoneカメラにもたらしましたが、伝えられるところによると、始めたばかりです。
iOS 18.4のおかげで、視覚インテリジェンスが多くのiPhoneカメラをアップグレードしたばかりです
Visual Intelligenceは、iPhoneのカメラを利用するAI機能です。 Appleがそれを説明する方法は次のとおりです:
ビジュアルインテリジェンスを使用して、周囲の場所やオブジェクトについてすばやく詳しく知ります。レストランやビジネスの詳細を調べてください。テキストを翻訳、要約、または読み上げます。植物や動物を特定します。もっと。
iOS 18.2で視覚インテリジェンスが最初に発売されたとき、カメラコントロールボタンを備えたiPhone専用でした。
つまり、4つのiPhone 16フラッグシップでのみ機能しました。

しかし、iOS 18.4では、Appleは機能を次のように拡張しました。
- iPhone 15 Pro
- iPhone 15 Pro Max
- iPhone 16e
これらのデバイスは、アクションボタン、ロック画面、またはコントロールセンターに視覚インテリジェンスを追加することにより、機能を使用できます。
この機能の拡張は、それ自体がすでにiOS 18.3に新しい機能を追加しているため、Appleがデバイスのカメラに「インテリジェンス」を追加することの始まりに過ぎません。
AirPodsとApple Watchのカメラは視覚インテリジェンスの拡張を継続します

Visual Intelligenceは今日、さまざまな有用な利点を提供します。
しかし、Appleの野望は明らかにはるかに大きいようです。
マークガーマンごと「Appleの視覚インテリジェンスの究極の計画は、iPhoneをはるかに超えています。」
彼は続けます:
同社は、私が数ヶ月間書いてきたカメラ装備のAirPodを含む、機能を将来のデバイスの中核に配置したいと考えています。途中で、AppleはOpenaiやGoogleのものではなく、視覚インテリジェンスを独自のAIモデルにシフトしたいと考えています。
しかし、AIのウェアラブルに対するAppleのビジョンはさらに進んでいます。同社は、カメラを含むApple Watchの新しいバージョンに取り組んでいます。将来のAirPodsと同様に、これはデバイスが外の世界を見て、AIを使用して関連情報を提供するのに役立ちます。
将来のAirPodsとApple Watchモデルの飼育カメラは、Appleの視覚知能計画と深く結びついているようです。
戦略は2つあります。
- iOS 18.3がしたように、時間の経過とともに視覚知能に新しい機能を追加する
- iOS 18.4がしたように、時間の経過とともに「インテリジェント」カメラをより多くのデバイスに持ち込みます
視覚インテリジェンスが今日役立つかどうかにかかわらず、Appleは機能を始めたばかりのようです。
数年後、おそらく視覚知能は、私たちのiPhoneだけでなく、多くのAppleデバイスの不可欠な部分になるでしょう。
今日のiPhoneで視覚インテリジェンスを使用していますか? Appleはそれを改善するために何をすべきですか?コメントでお知らせください。
最高のiPhoneアクセサリー
FTC:収入獲得自動車アフィリエイトリンクを使用しています。 もっと。