Appleは、Visual Intelligenceと呼ばれるApple Intelligence機能をiPhone 15 ProとiPhone 15 Pro Maxにもたらしました。 iOS 18.4 Beta 2は、GoogleおよびChatGPTに接続されたビジュアル検索機能をiPhone 16ラインナップ以外のモデルにもたらす最初のソフトウェアアップデートです。
Visual Intelligenceは、最初はiPhone 16、iPhone 16 Plus、iPhone 16 Pro、およびiPhone 16 Pro Maxのカメラコントロールのロングプレスによってのみ呼び出されました。ただし、Appleは最近、カメラコントロールボタンなしでiPhone 16Eを導入しました。このため、Appleは視覚インテリジェンスをアクションボタンとコントロールセンターにもたらしました。
iOS 18.4ベータ2から始めて、Visual IntelligenceはiPhone 15 ProとiPhone 15 Pro Maxで初めて動作します。これらのモデルは、Apple Intelligence Support(Beta)を含む最初のモデルでしたが、この単一のAI機能がありませんでした。
Appleは以前、Visual IntelligenceがiPhone 15 Proに届くことを確認しましたが、同社はどのソフトウェアアップデートがサポートをもたらすかについては言いませんでした。 iOS 18.4ベータ1には、iPhone 15 Proでサポートがありませんでした。 9TO5MACは、Appleがカメラ制御なしで視覚インテリジェンスを呼び出すためのサポートを開発していることを最初に報告しました。
iPhone 15 ProとiPhone 16Eは、アクションボタンとコントロールセンターを介して視覚インテリジェンスサポートを含める唯一のモデルではありません。
iOS 18.4ベータ2には、iPhone 16、iPhone 16 Plus、iPhone 16 Pro、およびiPhone 16 Pro Maxがアクションボタンが割り当てられたタスクまたはコントロールセンタータイルを介して視覚インテリジェンスを呼び出す機能も含まれています。
iPadのサポートについてはまだ言葉がありません。これは、新しいハードウェアのApple Intelligenceをサポートしています。
最高のアップルアクセサリー
ザックホールをフォローしてください x、そして、共同ホストのソフィア・トゥンと一緒にランタイムを聞いてください アップルポッドキャスト そして YouTube。
FTC:収入獲得自動車アフィリエイトリンクを使用しています。 もっと。