街を歩いていて、「このお店気になるけど、何のお店だろう?」「この花、何て名前だっけ?」「この商品、どこで買えるんだろう?」と思ったこと、ありませんか?
そんな「知りたい!」を一瞬で解決してくれるのが、iPhoneの「ビジュアルインテリジェンス」という新機能です。
2025年4月のiOS 18.4アップデートで日本語対応したこの機能、実はめちゃくちゃ便利。カメラを向けるだけで、目の前にあるものの情報を瞬時に教えてくれるんです。
今回は、このビジュアルインテリジェンスについて、使い方から具体的な活用シーンまで、詳しく解説していきます!
ビジュアルインテリジェンスって何?

簡単に言うと
ビジュアルインテリジェンスは、「iPhoneのカメラで見たものについて、AIが教えてくれる機能」です。
Apple Intelligenceの一部として提供されていて、こんなことができます:
- 目の前の商品を調べて、どこで買えるか検索
- お店や施設の情報を取得(営業時間、電話番号など)
- 動物や植物の名前を識別
- 看板やポスターの文字を読み取って翻訳や要約
- 電話番号やメールアドレスを認識して、すぐに連絡
- イベントの日時をカレンダーに追加
つまり、「Google レンズ」のiPhone版みたいなイメージですね。ただし、iPhoneならではの便利さがあります。
従来の画像検索との違い
「Google レンズでもできるじゃん」と思うかもしれません。確かに似ていますが、ビジュアルインテリジェンスには大きな利点があります:
起動が超速い
- Google レンズ:アプリを開く→カメラタブに移動→撮影
- ビジュアルインテリジェンス:ボタン長押しだけ!
どこからでも使える
- ロック画面からでも起動できる
- 専用ボタン(カメラコントロール)で即起動
- 他のアプリを開く必要なし
ChatGPTとGoogle検索を選べる
- 「これ何?」と聞きたい→ChatGPTに質問
- 同じ商品を探したい→Google画像検索
- 使い分けができて便利!
使える機種は?対応デバイスをチェック
残念ながら、すべてのiPhoneで使えるわけではありません。
対応機種一覧
ビジュアルインテリジェンスが使えるiPhone:
- iPhone 16シリーズ(iPhone 16、16 Plus、16 Pro、16 Pro Max)
- iPhone 16e
- iPhone 15 Pro
- iPhone 15 Pro Max
条件:
- iOS 18.4以降にアップデート済み
- Apple Intelligenceをオンにしている
使えない機種:
- iPhone 15(通常モデル)
- iPhone 15 Plus
- iPhone 14シリーズ以前のすべての機種
「えー、私のiPhoneは使えないの?」という方、多いかもしれませんね。この機能、Apple Intelligenceの一部なので、対応チップ(A17 Pro以降)を搭載した機種限定なんです。
ビジュアルインテリジェンスの起動方法
機種によって起動方法が少し違います。自分のiPhoneに合った方法を確認しましょう。
iPhone 16シリーズ(16e除く)の場合
一番簡単です!
手順:
- カメラコントロールボタンを長押し
- 本体右側面、下の方にあるボタン
- 電源ボタンの下側
- ビジュアルインテリジェンスが起動
- カメラビューが表示される
- 画面下部に「質問」「撮影」「検索」ボタンが出現
これだけ!カメラコントロールボタンを長押しするだけで、どこからでも使えます。
注意点:
- カメラアプリを開いている状態では使えません
- 一度押すとカメラアプリが開くので、「長押し」がポイント
iPhone 16e、iPhone 15 Pro/15 Pro Maxの場合
カメラコントロールボタンがない機種は、別の方法で起動します。
方法1:コントロールセンターから起動
手順:
- 画面右上から下にスワイプ
- コントロールセンターを開く
- 「ビジュアルインテリジェンス」アイコンをタップ
- Apple Intelligenceのロゴがフレームに入ったアイコン
- ビジュアルインテリジェンスが起動
アイコンが見つからない場合:
- コントロールセンターで「コントロールを追加」をタップ
- 「Apple Intelligence と Siri」の項目を探す
- 「ビジュアルインテリジェンス」を追加
大きいサイズで配置すると、誤タップを防げて便利ですよ。
方法2:アクションボタンに割り当てる
手順:
- 「設定」アプリを開く
- 「アクションボタン」をタップ
- 右にスワイプして「ビジュアルインテリジェンス」を選択
- 設定完了!
これで、本体左側面のアクションボタンを長押しすると、ビジュアルインテリジェンスが起動します。
方法3:ロック画面から起動
手順:
- ロック画面を長押し
- 「カスタマイズ」をタップ
- ロック画面を選択
- 画面下部の左右どちらかのアイコンをタップ
- 「ビジュアルインテリジェンス」を選択
これで、ロック画面からワンタップで起動できます。iPhoneのロックを解除しなくても使えるので、めちゃくちゃ便利です!
基本的な使い方
ビジュアルインテリジェンスを起動したら、次は実際に使ってみましょう。
画面の見方
起動すると、こんな画面が表示されます:
上部:
- カメラビュー(リアルタイムでカメラの映像)
下部:
- 質問ボタン(左):ChatGPTに質問できる
- 撮影ボタン(中央):被写体を撮影して確定
- 検索ボタン(右):Google画像検索で似た商品を探す
使い方の流れ
基本パターン:
- 調べたいものにカメラを向ける
- 中央の撮影ボタンをタップ
- 被写体が撮影される
- 「質問」または「検索」を選ぶ
- 質問:ChatGPTが詳しく説明してくれる
- 検索:Google画像検索で同じ商品を探す
- 結果を確認
- 終了する場合は画面下から上にスワイプ
簡単ですよね!では、具体的な使い方を見ていきましょう。
具体的な活用シーン別の使い方
シーン1:商品を調べて購入したい
例:「友達の持っているバッグ、かわいい!どこで買えるんだろう?」
手順:
- ビジュアルインテリジェンスを起動
- バッグにカメラを向けて撮影ボタンをタップ
- 「検索」ボタンをタップ
- Google画像検索で似た商品が表示される
- 商品名やブランドが分かる
- 販売サイトへのリンクから購入できる
ポイント:
- ブランドロゴやタグが写っていると、より正確に検索できる
- 複数の角度から撮影すると良い結果が得られることも
シーン2:お店の情報を知りたい
例:「このレストラン、営業時間は何時まで?予約できるかな?」
手順:
- ビジュアルインテリジェンスを起動
- お店の外観や看板にカメラを向けて撮影
- 自動的に店舗情報が表示される場合がある
- 営業時間
- 電話番号
- ウェブサイト
- レビュー・評価
- 必要に応じて、電話をかけたり、予約したりできる
注意点:
- この機能は現在、アメリカなど一部地域で利用可能
- 日本では段階的に対応予定
シーン3:動物や植物の名前を知りたい
例:「散歩中に見つけた花、何て名前だろう?」
手順:
- ビジュアルインテリジェンスを起動
- 花や植物にカメラを向けて撮影
- 画面上部に自動的に結果が表示される
- 植物名
- 簡単な説明
- タップして詳細情報を見る
活用例:
- 子どもとの散歩で植物の名前を教える
- ガーデニングで育てたい植物を見つける
- ペットに有害な植物を避ける
動物の場合:
- 犬の品種を識別
- 鳥や昆虫の名前を調べる
- ペット選びの参考に
シーン4:看板やポスターのテキストを読み取る
例:「イベントのポスターを見つけた!いつだっけ?」
手順:
- ビジュアルインテリジェンスを起動
- ポスターやチラシにカメラを向ける
- 撮影ボタンをタップ
- 画面下部に以下のオプションが表示される:
- 要約:テキストを短くまとめる
- 読み上げ:テキストを音声で読んでくれる
- 翻訳:外国語のテキストを翻訳
- 日時:日付をタップしてカレンダーに追加
便利な使い方:
カレンダーに追加:
- イベントの日時が認識されたらタップ
- 自動的にカレンダーアプリが開く
- イベント情報が入力済み
- 保存するだけ!
電話番号に電話:
- 電話番号が認識されたらタップ
- そのまま電話をかけられる
メールアドレスにメール:
- メールアドレスが認識されたらタップ
- メールアプリが開いて送信できる
ウェブサイトへアクセス:
- URLが認識されたらタップ
- Safariでサイトが開く
- いちいちURL打たなくていい!
シーン5:ChatGPTに質問する
例:「このカメラで使えるレンズは?」
手順:
- ビジュアルインテリジェンスを起動
- カメラにカメラを向けて撮影(ややこしいけど!)
- 「質問」ボタンをタップ
- テキスト入力欄に質問を入力
- 「このカメラで使えるマクロレンズは?」
- ChatGPTが回答してくれる
- 必要に応じて追加質問も可能
質問の例:
- 「これは何ですか?」
- 「この建物の歴史を教えて」
- 「この料理のレシピは?」
- 「この服に合うコーディネートは?」
- 「これの使い方は?」
ChatGPTが画像を認識して、詳しく教えてくれます。
画面上の内容を調べる【iOS 26の新機能】

iOS 26からは、カメラで映したものだけでなく、iPhone画面に表示されている内容も調べられるようになりました!
スクリーンショットでビジュアルインテリジェンスを使う
手順:
- 調べたい画面でスクリーンショットを撮る
- サイドボタン+音量上ボタンを同時押し
- 画面下部にビジュアルインテリジェンスのオプションが表示される
- 以下の操作ができる:
- 検索:似た画像をウェブで検索
- 部分検索:画面の一部だけを選んで検索
- 質問:ChatGPTに画面内容について質問
活用例:
ショッピング:
- SNSで見かけた商品のスクショを撮る
- ビジュアルインテリジェンスで検索
- どこで買えるか、値段はいくらかを調べる
情報収集:
- 記事のスクショを撮る
- ChatGPTに要約してもらう
- 主要なポイントだけ把握できる
予定管理:
- イベント告知のスクショを撮る
- 日時を認識してカレンダーに追加
ChatGPTとの連携について
ビジュアルインテリジェンスでは、ChatGPTを使って質問に答えてもらえます。
ChatGPT連携は必須?
答え:必須ではありません
ChatGPT連携はオプション機能です。使わなくても、以下の機能は利用できます:
- Google画像検索
- テキストの読み取り
- 動植物の識別
ただし、「質問」機能を使いたい場合は、ChatGPTとの連携が必要です。
ChatGPTの設定方法
手順:
- 「設定」アプリを開く
- 「Apple Intelligence と Siri」をタップ
- 「ChatGPT拡張機能」をタップ
- 「ChatGPTを使用」をオンにする
- 利用規約に同意
プライバシーについて:
- デフォルトでは、データは保存されません
- OpenAIアカウントにサインインすると、会話履歴が保存される
- プライバシーが気になる場合は、サインインしないまま使える
よくあるトラブルと解決方法
トラブル1:ビジュアルインテリジェンスが起動しない
原因:
- Apple Intelligenceがオフになっている
- iOS 18.4以降にアップデートされていない
- 対応機種ではない
解決方法:
- iOSバージョンを確認
- 設定→一般→情報→iOSバージョン
- iOS 18.4以降か確認
- Apple Intelligenceをオンにする
- 設定→Apple Intelligence と Siri
- Apple Intelligenceをオン
- 機種を確認
- iPhone 16シリーズまたはiPhone 15 Pro以降か
トラブル2:カメラコントロールを長押ししてもカメラが開くだけ
原因:
- 長押し時間が短い
- カメラアプリがすでに開いている
解決方法:
- もっと長く押す(2秒程度)
- カメラアプリを閉じてから試す
- ホーム画面やロック画面から起動する
トラブル3:認識精度が低い
原因:
- 写真がぼやけている
- 光が足りない
- 被写体が小さすぎる
解決方法:
- カメラを安定させて撮影
- 明るい場所で撮る
- 被写体に近づいて撮影
- 特徴的な部分(ロゴやタグなど)が写るようにする
トラブル4:ChatGPTの回答が正確じゃない
原因:
- AIは完璧ではない
- 画像から判断できる情報に限界がある
解決方法:
- 複数の角度から撮影して再度質問
- より具体的な質問をする
- Google検索と併用して確認
- 正確性が重要な情報は、他の方法でも確認する
トラブル5:日本語で使えない
原因:
- 言語設定が日本語になっていない
解決方法:
- 設定→Apple Intelligence と Siri
- 言語を確認
- 「日本語」になっているか確認
- なっていない場合は日本語に変更
ビジュアルインテリジェンスを使いこなすコツ
コツ1:状況に応じて「質問」と「検索」を使い分ける
「質問」(ChatGPT)が向いている:
- 「これは何?」と名前や説明が知りたい
- 歴史や背景を詳しく知りたい
- 使い方やレシピを教えてほしい
- おすすめや提案がほしい
「検索」(Google)が向いている:
- 同じ商品を購入したい
- どこで売っているか知りたい
- 価格を比較したい
- 似た商品を探したい
コツ2:明るい場所で使う
AIは画像認識をするので、写真が鮮明なほど精度が上がります。
ポイント:
- 自然光がある場所で使う
- 夜間や暗い場所では、照明を増やす
- フラッシュを使うと白飛びすることもあるので注意
コツ3:特徴的な部分を写す
商品の場合:
- ブランドロゴ
- タグや値札
- パッケージ全体
建物の場合:
- 正面から撮る
- 看板や入口が写るように
- 特徴的な外観を捉える
コツ4:複数の機能を組み合わせる
例えば:
- まずGoogle検索で商品を特定
- その後ChatGPTに「この商品のレビューは?」と質問
- さらに詳しい情報を得る
こんな風に、機能を組み合わせるとより便利に使えます。
コツ5:ロック画面やコントロールセンターに配置する
頻繁に使う場合は、アクセスしやすい場所に配置しましょう。
おすすめ:
- ロック画面の左右どちらか
- コントロールセンターの目立つ場所(大きいサイズで)
すぐに起動できると、使う頻度が増えますよ。
他のAI機能との違い
Google レンズとの違い
Google レンズ:
- アプリを開く必要がある
- Androidでも使える
- 豊富な機能(翻訳、宿題、ショッピングなど)
ビジュアルインテリジェンス:
- ボタン一つで即起動
- iPhoneのみ
- ChatGPTとGoogle検索を選べる
- iPhoneのカレンダーや電話アプリと連携
Siriとの違い
Siri:
- 音声で質問
- 画像を見て答えることはできない(以前は)
ビジュアルインテリジェンス:
- カメラで見て答える
- 視覚的な情報を認識
- 物体認識に特化
ちなみに、新しいSiriでもビジュアルインテリジェンスと連携できるようになっています。
プライバシーは大丈夫?
Apple Intelligenceの大きな特徴は、プライバシー保護です。
デバイス上で処理
ビジュアルインテリジェンスの多くの処理は、iPhone本体で行われます。
メリット:
- データがAppleのサーバーに送られない
- より高速な処理
- オフラインでも一部機能が使える
ChatGPT使用時の注意
ChatGPTを使う「質問」機能では、画像がOpenAIに送信されます。
デフォルトの状態:
- データは保存されない
- OpenAIアカウントと紐づかない
OpenAIアカウントにサインインした場合:
- 会話履歴が保存される
- アカウントと紐づけられる
プライバシーが気になる方は、サインインせずに使うことをおすすめします。
まとめ:ビジュアルインテリジェンスで生活が便利に!
iPhoneのビジュアルインテリジェンス、いかがでしたか?
おさらい:
ビジュアルインテリジェンスとは:
- カメラで見たものをAIが教えてくれる機能
- 商品検索、店舗情報、動植物識別、テキスト読み取りなど多機能
対応機種:
- iPhone 16シリーズ(16、16 Plus、16 Pro、16 Pro Max、16e)
- iPhone 15 Pro、15 Pro Max
- iOS 18.4以降が必要
起動方法:
- iPhone 16(16e除く):カメラコントロールボタン長押し
- iPhone 16e、15 Pro:コントロールセンター、アクションボタン、ロック画面から
主な使い方:
- ビジュアルインテリジェンスを起動
- 調べたいものにカメラを向けて撮影
- 「質問」(ChatGPT)または「検索」(Google)を選択
- 結果を確認
活用シーン:
- 商品の購入先を探す
- お店の情報を調べる
- 動物や植物の名前を知る
- ポスターの日時をカレンダーに追加
- 外国語の看板を翻訳
- スクショした内容を検索
使いこなすコツ:
- 「質問」と「検索」を状況に応じて使い分ける
- 明るい場所で撮影
- 特徴的な部分を写す
- よく使う人はロック画面やコントロールセンターに配置
ビジュアルインテリジェンスは、「知りたい」と思った瞬間にすぐ答えが得られる、とても便利な機能です。
散歩中に見つけた花の名前、友達が持っていた素敵なバッグ、レストランの営業時間…今まで調べるのに手間がかかっていたことが、カメラを向けるだけで分かるようになりました。
対応機種をお持ちの方は、ぜひ一度試してみてください。一度使い始めると、手放せなくなりますよ!

コメント