課題を出して、レビューが返る
AIを実務に届けるループ
Takajo AI Lab は、生成AIを実務で使うための小さなラボです。教材で学び、課題を解き、レビューを受けて直す。この反復を回す仕組みとして設計しています。
AI Review Plan は準備中(開始通知を受付中)。
何が違うのか
Takajo AI Lab は、単なる教材配布や動画視聴型の講座ではありません。
特徴は、以下を一体で設計していることです。
- 教材 -- 実務に必要な知識を体系的に整理
- 課題 -- 読むだけでなく、自分で作って提出する
- レビュー -- 提出物に対して具体的なフィードバックが返る
生成AIの学習では、読むだけでは進みません。実際に作って、出して、レビューされて、直すところまで回して初めて実力になります。
このラボでは、その反復を前提に設計しています。
2つのレビュープラン
レビューの方法が2つあります。目的と状況に応じて選べます。
Premium Plan -- 人間がレビューする
- 畑中が提出物を直接レビューします
- 提出されたプロンプトやコードを実際に動かして検証します
- 合否判定だけでなく、次に学ぶべきことまで含めた個別フィードバックを返します
- 最大5名の限定プラン
なぜ5名限定なのか
提出物を実際に動かして検証する高密度なレビューを維持するためです。また、このレビュープロセス自体がAIレビューシステムの研究開発を兼ねています。人間がレビューすることで得られる知見を、AIレビューの設計にフィードバックしています。
AI Review Plan -- AIがレビューする
- CriticChain(オープンソースのレビューエンジン)によるレビュー
- AIが書いたレビューを、別のAIが「甘すぎる」「論拠が弱い」と監査し、基準を満たすまで書き直させる多段パイプライン
- チューニング完了後に開始予定
教材と課題は両プラン共通です。違いはレビューの方法です。
レビューで実際に何が返ってくるか
合格した課題にも、このレベルのフィードバックが返ります。
以下は Premium Plan の実際のレビューから、匿名化して抜粋したものです。
課題: 大量データ生成のプロンプト改善 / 判定: 合格
良かった点
役割、背景、依頼内容などの見出しを用いてプロンプトを整理しており、AIが指示を正確に解析できる構成になっています。出力形式の例として、実際に期待するフォーマットと内容の粒度を提示しており、AIの出力のブレを最小限に抑えられています。改善提案: 大量生成時の「AIの息切れ」の回避
実際に手元のAI(最新モデル)であなたのプロンプトを実行して検証してみたところ、645年の大化の改新の記述において「蘇我氏を倒し」となるべきところが「蘇氏を倒し」と文字が欠落するハルシネーションが確認できました。これは、AIが一度に大量の出力を強いられて「息切れ」を起こした典型的な例です。このような膨大なタスクは一括で処理させず、手順を分割して途中で人間がチェックする「HITL(Human-in-the-Loop)」の設計を取り入れることがベストプラクティスです。
レビュアーが提出物を実際に実行し、具体的なハルシネーションを発見している。採点表では見つからない問題を、動かして見つけている。
課題: 自己検証ループの実践 / 判定: 合格
良かった点
英文作成・逆翻訳・検証と修正のステップを明確に分け、それぞれの中間出力を省略させずに表示させています。AIがどの段階でどのような思考を行ったのかが可視化されています(グラスボックス化)。改善提案: コンテキスト汚染を回避する「セッション分割」
現在の実装は基本要件を完璧に満たしています。しかし、AIには直前の対話を記憶する「コンテキストメモリ」があるため、「自分がどういう意図でこの英文を書いたか」を知っている状態で自身の文章をレビューすることになります。人間が自分の文章を校正すると見落としが生じやすいように、AIの自己評価も好意的な解釈に寄ってしまうリスクがあります。より厳格な検証が求められる場合は、生成と検証を「別のセッション」に分け、検証を行うAIが書き手の意図を一切知らない状態にする手法が有効です。
完璧な実装に対して「合格」を出した上で、実務で必ず直面する次の壁(コンテキスト汚染)を先に見せている。
課題: ロール設定と検証 / 判定: 合格
良かった点
ロールなしの場合も実行し、その結果と比較して振り返りを行えている点が高く評価できます。LLMの挙動を相対的に観察する姿勢は、プロンプトエンジニアリングにおいて非常に重要です。改善提案(3段階):
1. 構造化 -- 役割・ゴール・出力形式をMarkdownの見出しで分割する。
2. 可観測性の確保 -- 中間生成物を出力させ、AIがどの基準で判断したかを確認できるようにする(グラスボックス化)。
3. ロール実験 -- 異なるロールで実行し、口調だけでなくアドバイスの内容自体が変わることに気づく。
1つの課題に対して、今のレベルに合った改善と、その先に続く成長パスの両方を提示している。
AI Review の仕組み -- CriticChain
Takajo AI Lab の AI Review は、オープンソースの CriticChain を基盤にしています。
→ レビュー初稿 → 甘さ監査(Critique) → 書き直し(Refine)
→ 整合性チェック → スコアリング → 最終レビュー
- AIが書いたレビューを、別のAIが「甘すぎる」「根拠が弱い」と監査する
- ハルシネーションの検出だけでなく、伝播経路まで追跡する
- レビュープロセスの各段階が記録され、判断根拠を確認できる
CriticChain は、プロンプトの構文標準 prompt-as-code の検査基準に基づいて動作しています。標準を定義し、その標準で自動レビューする -- この一貫した設計が品質の基盤です。
こんな人に向いています
- 生成AIを業務で使える形まで持っていきたいエンジニア
- AIツールを使うだけでなく、仕組みとして理解したい人
- Prompt Engineering から Multi-Agent 開発まで、実践的に学びたい人
- 社内研修や法人向けパイロットを検討している担当者 → 法人向けのご相談はこちら
カリキュラム -- 全23レッスン
生成AIの基礎から、実務で使えるシステム構築まで。5つのフェーズで段階的に学びます。
Phase 1: 基礎(Lesson 1-3)
生成AIの仕組み、LLMの挙動と失敗パターン、主要ツールの使い分け
Phase 2: 開発環境(Lesson 4-6)
Python開発環境の構築、プロンプトエンジニアリング、カスタムスキル開発
Phase 3: LLM実装(Lesson 7-11)
LLM API の実践、LangChain によるアプリケーション開発、トークンとコスト管理
Phase 4: 応用(Lesson 12-18)
RAG、AIエージェント、ファインチューニング、マルチモーダル、UI構築
Phase 5: 実務(Lesson 19-23)
評価と品質管理、倫理とガバナンス、キャリア設計、卒業プロジェクト
学習の中心は、流行語を追うことではなく、AIを現場で使える仕組みに落とすことにあります。
興味がある方へ
Premium Plan に興味がある方
現在、限定5名で運用中です。空き状況は個別にお問い合わせください。
AI Review Plan に興味がある方
現在準備中です。info@1stpiece.io までご連絡いただければ、開始時にお知らせします。
法人パイロット・研修相談
人数や目的に応じた設計が可能です。技術顧問・AI導入支援についてはこちら
FAQ
- Q. 2つのプランの違いは何ですか?
- Premium Plan は畑中が直接レビューします。提出物を実際に動かして検証し、個別のフィードバックを返します。AI Review Plan は CriticChain による自動レビューで、即時にフィードバックが返ります。教材と課題は共通です。
- Q. Premium Plan に空きはありますか?
- 最大5名の限定枠です。空き状況は個別にお問い合わせください。
- Q. AI Review はいつ始まりますか?
- 現在準備中です。info@1stpiece.io までご連絡いただければ、開始時にお知らせします。
- Q. 自分のペースで動画を見るタイプの講座ですか?
- いいえ。教材で学び、課題を解き、レビューを受けて改善する反復を前提に設計しています。
- Q. 法人向けの相談は可能ですか?
- はい。Premium Plan の枠を法人パイロットとして利用する形が可能です。詳しくはこちら
- Q. CriticChain のソースコードは見られますか?
- はい。CriticChain はオープンソース(AGPL-3.0)で GitHub に公開しています。