AirPodsでライブ翻訳を使ってみよう、タイムラグを前提に会話を進める

日経XTECH / 4/9/2026

💬 OpinionTools & Practical Usage

Key Points

  • ライブ翻訳はApple Intelligenceの機能だが、非対応iPhoneでも標準の「翻訳」アプリでテキスト/音声/撮影文字の翻訳は利用できる
  • 「翻訳」アプリでは辞書のように入力して結果を確認する使い方が基本となり、音声入力も可能
  • 会話で使う場合は「会話」モードに切り替え、「自動翻訳」「言語を検出」をオンにしてマイク操作を簡素化するのがポイント
  • 会話では順番に話す必要があるが、画面を見ながら横並びで進めると違和感なく使える
  • 「表示」を「対面」にするとレイアウトが対話向けに最適化されるため、状況に応じた切り替えが推奨される

 ライブ翻訳はApple Intelligenceの機能だが、対応していないiPhoneでも翻訳機能が全く使えないわけではない。その場合は、標準の「翻訳」アプリを活用するとよい(図1)。

図1 「翻訳」アプリはApple Intelligence非対応モデルでも利用でき、テキストや音声を翻訳できる。図の手順で会話の翻訳にも使えるが、自分が意味を知りたい文章を入力して結果を確認するといった使い方が基本になる
図1 「翻訳」アプリはApple Intelligence非対応モデルでも利用でき、テキストや音声を翻訳できる。図の手順で会話の翻訳にも使えるが、自分が意味を知りたい文章を入力して結果を確認するといった使い方が基本になる
[画像のクリックで拡大表示]

 このアプリはApple Intelligence非対応モデルでも利用でき、テキストや音声を入力して翻訳するなど、ユーザーが操作して使う機能を備えている。キーボード入力や音声入力、カメラで撮影した文字の翻訳などを通じて、翻訳結果を確認しながら意味を把握するといった辞書に近い使い方が基本になる。

 音声入力も可能で、人との会話にも使える。ただし、その場合は話す言語に対応したマイクアイコンをタップしてから発話する必要があり、やや手間は掛かる。こうした場面では、画面下部のメニューから「会話」を選ぶと、対話向けに最適化されたユーザーインタフェースに切り替わり、操作しやすくなる(図2)。

図2 「会話」モードで「自動翻訳」「言語を検出」をオンにしておくと、マイクボタンをタップするだけで双方の言語を聞き取れる状態になる。発話した側の言葉が翻訳され、画面に表示される
図2 「会話」モードで「自動翻訳」「言語を検出」をオンにしておくと、マイクボタンをタップするだけで双方の言語を聞き取れる状態になる。発話した側の言葉が翻訳され、画面に表示される
[画像のクリックで拡大表示]

 画面右上の「…」から「自動翻訳」「言語を検出」をオンにしておくと、マイクボタンをタップするだけで双方の言語が聞き取り状態になり、発話した側の言葉が自動的に翻訳される。順番に話す必要はあるものの、相手と横並びになってiPhoneの画面を見ながら会話する状況では、違和感なく使えるだろう。

 画面左上の「表示」から「対面」に切り替えると、画面の上半分が逆さまになり、対面時に互いが自分側から内容を読めるレイアウトに変わる。会話の状況に応じて使い分けよう。

次のページ

ライブ翻訳にAirPodsを組み合わせると何がで...

この記事は会員登録で続きをご覧いただけます