AI専門用語辞典(2026年3月版)、保存推奨
- 核心的な視点:本稿は、ブロックチェーンと暗号通貨分野の従事者に、AI分野の基礎と応用語彙ガイドを提供し、AI業界の核心概念を迅速に理解し、ますます融合する「AI+Web3」のトレンドに対応することを目的としている。
- キー要素:
- LLMとSLM:大規模言語モデル(LLM)は多種類のコンテンツを処理する深層学習モデルであり、小規模言語モデル(SLM)は低コストとローカル展開を強調する。
- AIエージェント:目標を理解し、ツールを呼び出し、タスクを実行できる知的システムを指し、チャットボットから実行可能システムへの転換の鍵と見なされている。
- トークンとコンテキストウィンドウ:トークンはAIモデルが処理と課金を行う基本単位であり、コンテキストウィンドウはモデルが単回処理で「記憶」できるトークンの総量を決定する。
- 推論とコスト:モデルが公開後の推論(Inference)プロセスは商業化段階の主要なコスト源であり、「トレーニングは高価だが、推論はもっとお金がかかる」とよく言われる。
- RAGとグラウンディング:検索拡張生成(RAG)は外部データソースを組み合わせて回答を生成し、事実整合(Grounding)を実現し、モデルのデータの陳腐化と幻覚問題を解決することを目的としている。
- ツール呼び出しとAPI:モデルが外部ツールを呼び出す(Tool Calling)能力はエージェントの鍵であり、APIはAIアプリケーションとサードパーティサービスを接続する基盤インフラである。
- 業界のホットトピック:エージェントワークフロー(Agentic Workflow)、雰囲気プログラミング(Vibe Coding)、モデルコンテキストプロトコル(MCP)は現在のAI界隈のホットな概念とトレンドである。
Original | Odaily (@OdailyChina)
Author | Golem (@web3_golem)

今、暗号通貨界隈の人間がAIに関心を持たないと、すぐに嘲笑の的になりやすい(そう、友よ、なぜこの記事をクリックしたか考えてみて)。
あなたはAIの基礎概念が全く分からず、文章中の略語の意味を毎回「豆包」に聞いているだろうか? また、AI関連のオフラインイベントで専門用語に戸惑いながら、ネットワークが切れていないふりをしたことはないだろうか?
短時間でAI業界に足を踏み入れることは現実的ではないが、AI業界で頻繁に使われる基礎的な語彙を知っておくことは決して損ではない。幸運なことに、この記事はあなたのために用意されたものだ↓ 心から熟読し、保存することをお勧めする。
基礎語彙(12)
LLM(大規模言語モデル)
LLMの核心は、膨大なデータで訓練され、言語の理解と生成に長けた深層学習モデルであり、テキストを処理でき、現在では他のタイプのコンテンツもますます処理できるようになっている。
これに対応するのがSLM(小規模言語モデル)——通常、コストが低く、デプロイが軽量で、ローカル化がより容易な言語モデルを強調する。
AI Agent(AIエージェント)
AI Agentは単なる「チャットができるモデル」ではなく、目標を理解し、ツールを呼び出し、タスクを段階的に実行し、必要に応じて計画や検証も行うシステムを指す。Googleはエージェントを、マルチモーダル入力に基づいて推論し、ユーザーに代わってアクションを実行するソフトウェアと定義している。
Multimodal(マルチモーダル)
そのAIモデルはテキストだけを読むのではなく、テキスト、画像、音声、動画など複数の入出力形式を同時に処理できる。Googleはマルチモーダルを、異なるタイプのコンテンツを処理および生成する能力と明確に定義している。
Prompt(プロンプト)
ユーザーがモデルに入力する指示であり、最も基本的な人間と機械のインタラクション方法である。
Generative AI(生成AI / AIGC)
AIが単に分類や予測をするのではなく「生成」することに重点を置き、生成モデルはプロンプトに基づいてテキスト、コード、画像、スタンプ、動画などのコンテンツを生成できる。
Token(トークン)
これはAI界隈で最も「Gas単位」に似た概念の一つである。モデルは「文字数」ではなくトークン単位でコンテンツを理解し、入出力を処理する。課金、コンテキスト長、応答速度は通常、トークンと強く関連している。
Context Window(コンテキストウィンドウ / コンテキスト長)
モデルが一度に「見て」利用できるトークンの総量を指し、モデルが単一処理時に考慮または「記憶」できるトークン数とも呼ばれる。
Memory(メモリ)
モデルやエージェントがユーザーの好み、タスクのコンテキスト、過去の状態を保持できるようにする。
Training(トレーニング)
モデルがデータからパラメータを学習するプロセス。
Inference(推論実行)
トレーニングに対応し、モデルがデプロイされた後、入力を受け取り出力を生成するプロセスを指す。業界では「トレーニングは高価だが、推論はさらに費用がかかる」とよく言われる。なぜなら、実際の商業化段階では多くのコストが推論で発生するからだ。関連するトレーニング/推論の区別は、主要ベンダーがデプロイコストを議論する際の基本的なフレームワークでもある。
Tool Use / Tool Calling(ツール呼び出し)
モデルがテキストを出力するだけでなく、検索、コード実行、データベース、外部APIなどのツールを呼び出せることを意味し、これはすでにエージェントの重要な能力の一つと見なされている。
API(インターフェース)
AI製品、アプリケーション、エージェントがサードパーティサービスに接続する際のインフラストラクチャ。
応用語彙(18)
transformer(トランスフォーマーアーキテクチャ)
AIがコンテキスト関係をより理解するのに長けたモデルアーキテクチャであり、今日のほとんどの大規模言語モデルの技術的基盤でもある。最大の特徴は、文章全体の中の各単語と他の単語との関係を同時に見ることができる点である。
Attention(アテンション機構)
これはトランスフォーマーの中核となる最も重要なメカニズムであり、モデルが文章を読む際に「どの単語が最も重点的に見る価値があるか」を自動的に判断する役割を果たす。
Agentic / Agentic Workflow(エージェント的 / エージェント化ワークフロー)
これは最近非常に話題になっている表現で、システムがもはや単なる「一問一答」ではなく、ある程度の自律性を持ってタスクを分解し、次のステップを決定し、外部能力を呼び出すことを意味する。多くのベンダーはこれを「チャットボットから実行可能なシステムへ」の移行の指標と見なしている。
Subagents(サブエージェント)
1つのエージェントがさらに複数の専門的な小さなエージェントに分解され、サブタスクを処理する。
Skills(再利用可能な能力モジュール)
OpenClawの爆発的流行に伴い、この言葉は最近明らかに一般的になった。これはAIエージェント向けの、インストール可能で、再利用可能で、組み合わせ可能な能力ユニット/操作説明書であるが、ツールの悪用やデータ漏洩のリスクがあることも特に注意喚起されている。
Hallucination(機械的幻覚)
モデルが真面目な顔をしてでたらめを言うこと、「存在しないパターンを感知する」ことで誤ったまたは不合理な出力を生成することを意味する。これはモデルが一見合理的だが、実際には誤った過剰な自信による出力である。
Latency(レイテンシー)
モデルがリクエストを受信してから結果を出力するまでにかかる時間であり、最も一般的なエンジニアリング用語の一つで、実装や製品化について話すと頻繁に登場する。
Guardrails(ガードレール)
モデル/エージェントが何をできるか、いつ停止するか、どのようなコンテンツを出力してはいけないかを制限するために使用される。
Vibe Coding(雰囲気プログラミング)
この言葉も現在最も流行っているAI用語の一つで、ユーザーが直接会話でニーズを表現し、AIがコードを書き、ユーザーは具体的なコードの書き方を理解する必要がないことを意味する。
Parameters(パラメータ)
モデル内部で能力と知識を保存するために使用される数字の規模であり、モデルの規模を大雑把に測るためによく使われる。「百億パラメータ」「千億パラメータ」はAI界隈で最も一般的な威嚇的な表現である。
Reasoning Model(強力な推論モデル)
これは通常、多段階推論、計画、検証、複雑なタスク実行に長けたモデルを指す。
MCP(モデルコンテキストプロトコル)
これはここ1年で非常に話題になっている新しい用語で、モデルと外部ツール/データソースの間に汎用インターフェースを確立する役割を果たす。
Fine-tuning / Tuning(ファインチューニング)
は基礎モデル上でさらにトレーニングを行い、特定のタスク、スタイル、または領域により適応させること。Googleの用語集は、tuningとfine-tuningを関連概念として直接扱っている。
Distillation(蒸留)
大規模モデルの能力を可能な限り小規模モデルに圧縮すること。「先生」が「生徒」に教えるようなもの。
RAG(検索拡張生成)
これはほぼ企業AIの基本構成となっている。マイクロソフトはこれを「検索 + LLM」のパターンと定義し、外部データを使用して回答に根拠付け(grounding)を行い、モデルのトレーニングデータが古い、非公開知識ベースを理解していない問題を解決する。目的は、モデル自身の記憶だけに頼るのではなく、実際のドキュメントと非公開知識に基づいて回答を構築することである。
Grounding(事実整合)
RAGと一緒によく登場し、モデルの回答をドキュメント、データベース、ウェブページなどの外部根拠に基づかせ、パラメータ記憶だけに頼った「自由な発想」にしないことを意味する。マイクロソフトはRAGのドキュメントで、groundingを中核的価値として明確に位置付けている。
Embedding(ベクトル埋め込み / 意味ベクトル)
はテキスト、画像、音声などのコンテンツを高次元の数値ベクトルにエンコードし、意味的類似度計算を行えるようにすること。
Benchmark(ベンチマークテスト)
統一された基準セットを使用してモデルの能力をテストする評価方法であり、各社のモデルが「自分がいかに優れているかを証明する」ために最も好んで使用するランキング言語でもある。


