LLM Deep Dive
大規模言語モデル(LLM)の仕組みから最新動向まで、Transformerアーキテクチャ・訓練・推論・安全性・エコシステムを10章で徹底解剖するシリーズ
目次
- 第1章 第1章: LLMとは何か — 定義・全体像・なぜ今注目されるのか LLMの定義、次トークン予測の基本原理、ChatGPTの衝撃と社会的インパクト、市場規模の全体像→
- 第2章 第2章: LLMの歴史 — n-gramからTransformerへ 統計的言語モデルからRNN/LSTM、Attention機構の発明、Transformer誕生、GPTシリーズの進化年表→
- 第3章 第3章: Transformerアーキテクチャ — Self-Attentionの仕組みを理解する Self-Attention・Multi-Head Attention・FFNの詳細、トークナイゼーション、位置エンコーディング→
- 第4章 第4章: LLMの訓練パイプライン — 事前学習・データ品質・スケーリング則 自己回帰事前学習、データ品質管理、スケーリング則、分散訓練、訓練コストの実態→
- 第5章 第5章: アライメントとファインチューニング — 人間の意図に沿うLLMを作る SFT、RLHF、DPO、ORPO、Constitutional AI、アライメント問題の本質→
- 第6章 第6章: 推論の仕組みと最適化 — トークン生成から高速化まで 自己回帰生成、サンプリング戦略、KVキャッシュ、FlashAttention、量子化、推論エンジン→
- 第7章 第7章: プロンプトエンジニアリングとRAG — LLMを使いこなす実践手法 Zero-shot/Few-shot/CoT、RAGアーキテクチャ、Embedding、テスト時計算→
- 第8章 第8章: 主要モデル比較とエコシステム — 群雄割拠のLLM市場 GPT/Claude/Gemini/Llama/DeepSeek比較、ベンチマーク、開発フレームワーク、監視ツール→
- 第9章 第9章: AI安全性と社会的影響 — リスク・倫理・規制 ハルシネーション、プロンプトインジェクション、レッドチーミング、規制動向、ガバナンス→
- 第10章 第10章: LLMの未来 — 推論モデル・エージェント・マルチモーダル 推論モデル、AIエージェント、MCP/A2A、SLM、マルチモーダル、学習ロードマップ→