課題を出して、レビューが返る
AIを実務に届けるループ

Takajo AI Lab は、生成AIを実務で使うための小さなラボです。教材で学び、課題を解き、レビューを受けて直す。この反復を回す仕組みとして設計しています。

Premium Plan(人間レビュー)は限定5名で運用中。
AI Review Plan は準備中(開始通知を受付中)。

何が違うのか

Takajo AI Lab は、単なる教材配布や動画視聴型の講座ではありません。

特徴は、以下を一体で設計していることです。

  • 教材 -- 実務に必要な知識を体系的に整理
  • 課題 -- 読むだけでなく、自分で作って提出する
  • レビュー -- 提出物に対して具体的なフィードバックが返る

生成AIの学習では、読むだけでは進みません。実際に作って、出して、レビューされて、直すところまで回して初めて実力になります。

このラボでは、その反復を前提に設計しています。

2つのレビュープラン

レビューの方法が2つあります。目的と状況に応じて選べます。

運用中

Premium Plan -- 人間がレビューする

  • 畑中が提出物を直接レビューします
  • 提出されたプロンプトやコードを実際に動かして検証します
  • 合否判定だけでなく、次に学ぶべきことまで含めた個別フィードバックを返します
  • 最大5名の限定プラン

なぜ5名限定なのか
提出物を実際に動かして検証する高密度なレビューを維持するためです。また、このレビュープロセス自体がAIレビューシステムの研究開発を兼ねています。人間がレビューすることで得られる知見を、AIレビューの設計にフィードバックしています。

技術顧問・AI導入支援についてはこちら

準備中

AI Review Plan -- AIがレビューする

  • CriticChain(オープンソースのレビューエンジン)によるレビュー
  • AIが書いたレビューを、別のAIが「甘すぎる」「論拠が弱い」と監査し、基準を満たすまで書き直させる多段パイプライン
  • チューニング完了後に開始予定

教材と課題は両プラン共通です。違いはレビューの方法です。

レビューで実際に何が返ってくるか

合格した課題にも、このレベルのフィードバックが返ります。
以下は Premium Plan の実際のレビューから、匿名化して抜粋したものです。

例1: 提出されたプロンプトを実際に動かして検証する

課題: 大量データ生成のプロンプト改善 / 判定: 合格

良かった点
役割、背景、依頼内容などの見出しを用いてプロンプトを整理しており、AIが指示を正確に解析できる構成になっています。出力形式の例として、実際に期待するフォーマットと内容の粒度を提示しており、AIの出力のブレを最小限に抑えられています。

改善提案: 大量生成時の「AIの息切れ」の回避
実際に手元のAI(最新モデル)であなたのプロンプトを実行して検証してみたところ、645年の大化の改新の記述において「蘇我氏を倒し」となるべきところが「蘇氏を倒し」と文字が欠落するハルシネーションが確認できました。これは、AIが一度に大量の出力を強いられて「息切れ」を起こした典型的な例です。

このような膨大なタスクは一括で処理させず、手順を分割して途中で人間がチェックする「HITL(Human-in-the-Loop)」の設計を取り入れることがベストプラクティスです。

レビュアーが提出物を実際に実行し、具体的なハルシネーションを発見している。採点表では見つからない問題を、動かして見つけている。

例2: 合格でも、次の壁を先に見せる

課題: 自己検証ループの実践 / 判定: 合格

良かった点
英文作成・逆翻訳・検証と修正のステップを明確に分け、それぞれの中間出力を省略させずに表示させています。AIがどの段階でどのような思考を行ったのかが可視化されています(グラスボックス化)。

改善提案: コンテキスト汚染を回避する「セッション分割」
現在の実装は基本要件を完璧に満たしています。しかし、AIには直前の対話を記憶する「コンテキストメモリ」があるため、「自分がどういう意図でこの英文を書いたか」を知っている状態で自身の文章をレビューすることになります。人間が自分の文章を校正すると見落としが生じやすいように、AIの自己評価も好意的な解釈に寄ってしまうリスクがあります。

より厳格な検証が求められる場合は、生成と検証を「別のセッション」に分け、検証を行うAIが書き手の意図を一切知らない状態にする手法が有効です。

完璧な実装に対して「合格」を出した上で、実務で必ず直面する次の壁(コンテキスト汚染)を先に見せている。

例3: 初級から上級への成長パスを設計する

課題: ロール設定と検証 / 判定: 合格

良かった点
ロールなしの場合も実行し、その結果と比較して振り返りを行えている点が高く評価できます。LLMの挙動を相対的に観察する姿勢は、プロンプトエンジニアリングにおいて非常に重要です。

改善提案(3段階):

1. 構造化 -- 役割・ゴール・出力形式をMarkdownの見出しで分割する。

2. 可観測性の確保 -- 中間生成物を出力させ、AIがどの基準で判断したかを確認できるようにする(グラスボックス化)。

3. ロール実験 -- 異なるロールで実行し、口調だけでなくアドバイスの内容自体が変わることに気づく。

1つの課題に対して、今のレベルに合った改善と、その先に続く成長パスの両方を提示している。

AI Review の仕組み -- CriticChain

Takajo AI Lab の AI Review は、オープンソースの CriticChain を基盤にしています。

提出物 → Lint検査 → 構造分析 → ハルシネーション検出
→ レビュー初稿 → 甘さ監査(Critique) → 書き直し(Refine)
→ 整合性チェック → スコアリング → 最終レビュー
  • AIが書いたレビューを、別のAIが「甘すぎる」「根拠が弱い」と監査する
  • ハルシネーションの検出だけでなく、伝播経路まで追跡する
  • レビュープロセスの各段階が記録され、判断根拠を確認できる

CriticChain は、プロンプトの構文標準 prompt-as-code の検査基準に基づいて動作しています。標準を定義し、その標準で自動レビューする -- この一貫した設計が品質の基盤です。

こんな人に向いています

  • 生成AIを業務で使える形まで持っていきたいエンジニア
  • AIツールを使うだけでなく、仕組みとして理解したい人
  • Prompt Engineering から Multi-Agent 開発まで、実践的に学びたい人
  • 社内研修や法人向けパイロットを検討している担当者 → 法人向けのご相談はこちら

カリキュラム -- 全23レッスン

生成AIの基礎から、実務で使えるシステム構築まで。5つのフェーズで段階的に学びます。

Phase 1: 基礎(Lesson 1-3)

生成AIの仕組み、LLMの挙動と失敗パターン、主要ツールの使い分け

Phase 2: 開発環境(Lesson 4-6)

Python開発環境の構築、プロンプトエンジニアリング、カスタムスキル開発

Phase 3: LLM実装(Lesson 7-11)

LLM API の実践、LangChain によるアプリケーション開発、トークンとコスト管理

Phase 4: 応用(Lesson 12-18)

RAG、AIエージェント、ファインチューニング、マルチモーダル、UI構築

Phase 5: 実務(Lesson 19-23)

評価と品質管理、倫理とガバナンス、キャリア設計、卒業プロジェクト

学習の中心は、流行語を追うことではなく、AIを現場で使える仕組みに落とすことにあります。

興味がある方へ

Premium Plan に興味がある方
現在、限定5名で運用中です。空き状況は個別にお問い合わせください。

AI Review Plan に興味がある方
現在準備中です。info@1stpiece.io までご連絡いただければ、開始時にお知らせします。

法人パイロット・研修相談
人数や目的に応じた設計が可能です。技術顧問・AI導入支援についてはこちら

FAQ

Q. 2つのプランの違いは何ですか?
Premium Plan は畑中が直接レビューします。提出物を実際に動かして検証し、個別のフィードバックを返します。AI Review Plan は CriticChain による自動レビューで、即時にフィードバックが返ります。教材と課題は共通です。
Q. Premium Plan に空きはありますか?
最大5名の限定枠です。空き状況は個別にお問い合わせください。
Q. AI Review はいつ始まりますか?
現在準備中です。info@1stpiece.io までご連絡いただければ、開始時にお知らせします。
Q. 自分のペースで動画を見るタイプの講座ですか?
いいえ。教材で学び、課題を解き、レビューを受けて改善する反復を前提に設計しています。
Q. 法人向けの相談は可能ですか?
はい。Premium Plan の枠を法人パイロットとして利用する形が可能です。詳しくはこちら
Q. CriticChain のソースコードは見られますか?
はい。CriticChain はオープンソース(AGPL-3.0)で GitHub に公開しています。