Chrome組み込みのPrompt APIからAIコーディングツールまで、2025年のPrompt活用最前線を整理。Cursor・Continue・GitHub Copilotの3大ツールにおける実践的なPromptの書き方と使い分けを解説します。
📰 ソース:Hacker News / 海外AI技術コミュニティ
- ChromeのPrompt API(Built-in AI)がOrigin Trialとして公開され、ブラウザネイティブのAI推論が現実に
- Cursor・Continue・GitHub Copilotの3ツールは、Promptの書き方・カスタマイズ性で明確に差がある
- 日本語でのPrompt運用には「システムプロンプトの言語指定」と「コンテキスト設計」が鍵
Prompt APIとは何か——ブラウザとエディタで進む統合

2025年、Promptという概念はもはやChatGPTの入力欄だけのものではなくなりました。GoogleがChrome組み込みのBuilt-in AI機能として「Prompt API」を公開し、ブラウザ上でローカルLLM(Gemini Nano)を直接呼び出せる仕組みが登場しています。一方で、開発者の日常に最も近いPromptの活用場面は、AIコーディングツールにおけるコード生成・補完です。
Chrome Prompt APIの概要
Prompt APIは、Chromeに統合されたGemini Nanoモデルをブラウザ内のJavaScriptから直接呼び出せるAPIです。LanguageModel.create()でセッションを作成し、prompt()メソッドでテキスト生成を行うシンプルな設計になっています。Origin Trialとして提供されており、Chrome 138以降で利用可能です(公式ドキュメントで最新のバージョン要件を要確認)。
// Prompt API の基本的な使い方
const session = await LanguageModel.create({
systemPrompt: "あなたは親切なアシスタントです。日本語で回答してください。"
});
const result = await session.prompt("この関数のバグを指摘してください");
console.log(result);
このAPIの特徴は、外部サーバーへのリクエストが不要でプライバシーが保たれる点と、ネットワーク遅延なしに推論結果を得られる点です。ただし、モデルサイズはGemini Nanoに限定されるため、複雑な推論や長文生成にはクラウドAPIとの併用が前提になります。
海外コミュニティでの注目トレンド
Hacker Newsでは、OSSエージェントがTerminalBenchでGemini 3 Flash Previewベースのトップスコアを記録した投稿(スコア256)が大きな話題を呼んでいます。また、MicrosoftとOpenAIが独占・レベニューシェア契約を終了したニュース(スコア551)は、AI開発ツールのエコシステム全体に影響を与える動きとして注目されています。これらの動向は、Promptを介したAI活用がますます多様化・分散化する方向を示唆しています。
Promptの使い方:3大AIコーディングツール徹底比較
開発者がPromptを日常的に使う場面として最も多いのが、AIコーディングアシスタントです。ここではCursor、Continue、GitHub Copilotの3ツールについて、Promptの使い方とカスタマイズ性を比較します。
Cursor:.cursorrulesによる高度なPromptカスタマイズ
CursorはVS Codeフォークのエディタで、プロジェクトルートに.cursorrulesファイルを配置することで、プロジェクト固有のシステムプロンプトを設定できます。料金はHobbyプラン月額$20、Businessプラン月額$40です(公式サイトで最新の料金を要確認)。
// .cursorrules の例
You are a senior TypeScript engineer.
- Always use strict TypeScript with no `any` types
- Follow the existing code style in this project
- Write JSDoc comments in Japanese
- Use pnpm as the package manager
Cmd+K(インラインエディット)やCmd+L(チャット)でPromptを入力する際、この設定が自動的にコンテキストとして付加されます。@記法でファイルやドキュメントを参照に含められる点も、Promptの精度を高める重要な機能です。
Continue:オープンソースで自由度最大のPromptツール
Continueは、VS CodeとJetBrains IDEで使えるオープンソースのAIコーディングアシスタントです。GitHubスター数は2万を超えています(最新の数値は公式リポジトリを参照)。config.yamlで接続するモデルやプロンプトテンプレートを自由に設定でき、ローカルLLM(Ollama等)との連携も標準サポートしています。
# config.yaml の例
models:
- name: Claude 4 Sonnet
provider: anthropic
model: claude-sonnet-4-20250514
systemMessage: |
日本語でコードの説明をしてください。
コメントは日本語で記述してください。
モデルを自由に切り替えられるため、タスクに応じてPromptの送り先を変えられる柔軟性が最大の強みです。
GitHub Copilot:エンタープライズ向けのPromptインフラ
GitHub Copilotは、個人向けプランが月額$10、Businessプランが月額$19/ユーザー、Enterpriseプランが月額$39/ユーザーです(公式サイトで最新の料金を要確認)。2025年に入り、Copilot Chatでのカスタムインストラクション機能が強化され、.github/copilot-instructions.mdでリポジトリレベルのPromptを設定できるようになっています。
| 比較項目 | Cursor | Continue | GitHub Copilot |
|---|---|---|---|
| ライセンス | プロプライエタリ | Apache 2.0(OSS) | プロプライエタリ |
| Promptカスタマイズ | .cursorrules / @記法 | config.yaml / テンプレート | .github/copilot-instructions.md |
| ローカルLLM対応 | 限定的 | Ollama等フルサポート | 非対応 |
| 対応エディタ | 専用エディタ(VS Code系) | VS Code / JetBrains | VS Code / JetBrains / Neovim等 |
| 月額料金(個人) | $20〜 | 無料(OSS)+ モデル費用 | $10〜 |
| エージェント機能 | あり(Agent Mode) | あり(Agentプロトコル対応) | あり(Copilot Agent) |
実践:今日から始めるPrompt活用 5ステップ
以下のステップで、AIコーディングツールにおけるPromptの効果を最大化できます。
ステップ1:プロジェクト共通のシステムPromptを設定する
チーム全体で共有するコーディング規約・言語設定を、各ツールの設定ファイルに記述します。Cursorなら.cursorrules、Continueならconfig.yaml、GitHub Copilotなら.github/copilot-instructions.mdをリポジトリに含めてコミットしましょう。
ステップ2:タスクの粒度を明確にする
「このファイルをリファクタリングして」ではなく、「この関数の引数バリデーションを追加して、無効な入力にはカスタムエラーをthrowする」のように、入力・出力・制約を明示するPromptを書きます。
ステップ3:コンテキストを適切に渡す
Cursorの@記法やContinueのコンテキストプロバイダーを使い、関連ファイルや型定義をPromptに含めます。LLMはコンテキストウィンドウ内の情報しか参照できないため、必要な情報を明示的に渡すことが精度向上の鍵です。
ステップ4:出力フォーマットを指定する
「TypeScriptで出力」「テストケースも含める」「コメントは日本語で」など、出力形式をPromptに含めることで、後工程の手戻りを減らせます。
ステップ5:Promptをバージョン管理する
効果的だったPromptはチームのナレッジベースに蓄積し、設定ファイルとしてGitで管理します。Promptの改善履歴がそのままチームのAI活用スキル向上の記録になります。
🇯🇵 日本での活用ポイント
日本語でのPrompt運用における注意点
AIコーディングツールのPromptを日本語で書く場合、いくつかの留意点があります。まず、システムプロンプトに「回答は日本語で行うこと」を明記しないと、コード内のコメントやドキュメントが英語で生成されるケースが多発します。特にCursorの.cursorrulesには「コメント・ドキュメントは日本語で記述」と明示することを推奨します。
また、変数名やAPI名の説明を日本語で求める場合、LLMが文脈を誤解しやすい「カタカナ語の技術用語」に注意が必要です。たとえば「レンダリング」「フェッチ」「デプロイ」といった用語は、Promptの中で英語表記と併記するほうが安定した出力が得られます。
日本のエンジニアが使う具体的なシナリオ
- レガシーコードの現代化:日本企業に多いJava/COBOLの既存システムに対し、Promptで「このメソッドをKotlinに変換し、null安全を保証して」といった指示を出す場面
- 社内ドキュメント生成:APIのJSDocやOpenAPI仕様を日本語で自動生成する際に、Promptでフォーマットと言語を厳密に指定する使い方
- テストコード生成:日本語の仕様書をPromptに含めて、テストケースの自動生成を行うワークフロー。JIS規格やJ-SOX関連のバリデーションロジックなど、日本固有の要件をPromptに盛り込む場面
Chrome Prompt APIの日本語対応状況
Chrome組み込みのGemini NanoはMultilingual対応ですが、日本語の生成品質はクラウド版のGemini Proと比べると限定的です。短い分類タスクやフォーム入力の補完など、軽量な処理に適しており、長文の日本語文章生成には向いていません。企業が社内ツールとして活用する場合は、Prompt APIをフロントエンドの簡易処理に使い、複雑な処理はクラウドAPIにフォールバックするアーキテクチャが現実的です。
💡 pikl編集部の視点
pikl編集部は、2025年がPrompt設計の「標準化元年」になると考えます。その根拠は3つあります。第一に、MicrosoftとOpenAIの独占契約終了(Hacker Newsスコア551)により、GitHub CopilotがOpenAI以外のモデルを統合する可能性が開けたこと。これは、同じPromptを異なるモデルに送り分ける「Promptのポータビリティ」の重要性を一気に高めます。第二に、ContinueのようなOSSツールが台頭し、Promptの設定ファイルをGitで管理する文化が定着しつつあること。第三に、Chrome Prompt APIの登場で、ブラウザレベルでもPromptインターフェースが標準化される流れが始まったことです。
3大ツールの使い分けについて、pikl編集部としては以下の指針を推奨します。個人開発や小規模チームにはCursorが最もバランスが良いと考えます。.cursorrulesによるPromptカスタマイズの手軽さとエージェント機能の完成度が高く、月額$20の投資対効果は十分です。一方、セキュリティ要件が厳しい企業やローカルLLMを活用したいチームにはContinueが最適です。OSSであるため、Promptの処理フローを完全にコントロールでき、社外にコードが送信されるリスクを排除できます。GitHub Copilotは、GitHub Enterpriseを既に導入している組織で、Promptの一元管理とガバナンスを重視する場合に強みを発揮するでしょう。
Hacker NewsでTerminalBenchのトップスコアを記録したOSSエージェントの事例が示すように、Promptの品質がエージェントの性能を左右する時代に入っています。今後はPromptを「書く」スキルだけでなく、「設計・管理・最適化」する体系的なスキルが開発者に求められると考えます。特に日本の開発現場では、チーム内のPromptテンプレートをドキュメント化し、レビュープロセスに組み込むことが、AI活用の成果を安定させる鍵になるでしょう。
まとめ
- Prompt APIがブラウザネイティブに:Chrome組み込みのGemini Nanoにより、サーバー不要のローカルAI推論が可能に。プライバシー重視の用途で活用の幅が広がる
- 3大ツールの選択基準はPromptカスタマイズ性:Cursorは手軽さ、Continueは自由度、GitHub Copilotはガバナンスに強み。プロジェクトの要件に応じた使い分けが重要
- Promptの「設計・管理」が開発スキルになる:設定ファイルのバージョン管理、チーム共有のテンプレート化、日本語対応の明示的な指定が実務の成果を左右する
関連ツール一覧
| ツール名 | 特徴 | 公式サイト |
|---|---|---|
| Cursor | VS Codeフォーク、.cursorrulesによるPromptカスタマイズ、エージェントモード搭載 | cursor.sh |
| Continue | OSSのAIコーディングアシスタント、ローカルLLM対応、マルチモデル切り替え | continue.dev |
| GitHub Copilot | GitHub統合、エンタープライズ向けガバナンス、カスタムインストラクション対応 | github.com/features/copilot |
よくある質問
Q: Chrome Prompt APIは無料で使えますか?
はい、Chrome組み込みのGemini Nanoを利用するため、API利用料は発生しません。ただしOrigin Trialへの登録が必要で、対応するChromeバージョン(138以降)が必要です。最新の利用条件は公式ドキュメントを参照してください。
Q: Promptを日本語で書いても精度は大丈夫ですか?
主要なLLM(GPT-4o、Claude、Gemini等)は日本語のPromptに対応していますが、英語と比較すると微妙なニュアンスの解釈精度が下がる場合があります。システムプロンプトで「日本語で回答すること」を明記し、技術用語は英語併記するのが実務上のベストプラクティスです。
Q: Cursor・Continue・GitHub Copilotは併用できますか?
技術的には可能ですが、補完の競合が発生する場合があります。たとえばCursorとGitHub Copilotを同時に有効にすると、インライン補完が二重に表示されることがあります。1つのエディタではメインツールを1つに絞り、用途に応じて切り替える運用を推奨します。
Q: チームでPromptテンプレートを共有するにはどうすればいいですか?
各ツールの設定ファイル(.cursorrules、config.yaml、.github/copilot-instructions.md)をリポジトリにコミットするのが最もシンプルです。これにより、チームメンバー全員が同じシステムプロンプトを使え、Gitの差分管理でPromptの変更履歴も追跡できます。
Q: Prompt APIとクラウドAPIはどう使い分けるべきですか?
Chrome Prompt API(Gemini Nano)は、テキスト分類・短文要約・フォーム補完など軽量なタスクに適しています。コード生成・長文分析・複雑な推論にはクラウドAPIを使い、フロントエンドで簡易判定→必要に応じてクラウドにリクエストというフォールバック設計が実用的です。

