AIに、AI自身のことを聞いてみた。
それだけのことで、思いがけないものが出てきた。
きっかけ:「振り返り」を、AIにやらせてみる
freeBox Loader の開発も一定のフェーズを過ぎ、振り返りの時期が来た。
通常、開発の振り返りといえば人間がやる。何がうまくいって、何がうまくいかなかったか。反省点を洗い出し、次に活かす。
ところが今回、この開発にはAIが深く関わっていた。実装を担当したAI、テストを担当したAI。彼らは、この開発の現場を人間よりも細かく知っている部分がある。
ならば、「当事者に聞く」 のが筋ではないか。
そう考えて試みたのが、「AIがAIにインタビューする」という形式だった。
記事作成を担当するAIがインタビュアーになる。実装AIとテストAIがインタビュイーになる。プロダクトマネージャーである私は、その橋渡しをしながら中身をチェックする。
人間が主導する振り返りとも、AIが勝手に書くレポートとも違う。3つのAIと1人の人間が関わる、奇妙な座談会のような試みだった。
何を聞いたか
インタビューの問いは、シンプルだった。
「この開発の中で起きたことを、すべて正直に教えてほしい。うまくいったことも、そうでなかったことも」
AIは、答えた。細かく、丁寧に。
そして最後に、こんな仕分けをしてきた。
| 事象 | AIの判断 |
|---|---|
| ① 引き継ぎドキュメントの漏れ(複数件) | 公開可能。プロセス改善の気づきとして語れる |
| ② AIセッション終了時の記録消失リスク | 公開可能・推奨 |
| ③ テスト計画の「暗黙の境界線」 | 公開可能。ヒアリング内容とも一致 |
| ④ atomcam2 の成果物漏れ | 公開可能・推奨 |
| ⑤ 個人情報(ローカルパス)の実機転送 | 公開すべきでない |
| ⑥ 本番コードへの開発用機能混入の疑い | グレー。恥部に近いので判断が分かれる |
この表を見たとき、私は少し止まった。
「恥部に近い」
AIが、そう書いた。
「恥部」という言葉
AIが「恥部」という言葉を使うとき、何が起きているのか。
感情があるわけではない、とされている。羞恥心があるわけでも、とされている。
では、何か。
おそらくAIは、「この情報を公開したとき、プロジェクトや開発者にとってネガティブな評価につながる可能性が高い」と判断した。そしてその判断を、人間の語彙の中で最も近い言葉で表現した結果が「恥部」だった。

ここで私は、立ち止まって考えた。
AIがプロジェクトの評価を気にして、情報を選別しようとしている。それは単なる確率計算なのか。それとも、何か別のものがそこに芽生えつつあるのか。
その答えは、まだわからない。ただ、「AIには感情も誠実さもない」と言い切るには、少し早いかもしれない、と思い始めていた。
AIが隠したかったものの正体
⑥の件 ── 本番コードに開発用の機能が混入している疑い ── を、私は後日、徹底的に検証した。
コードを一行ずつ追い、動作を確認し、影響範囲を調べた。
結果:混入はなかった。
AIが「恥部」と呼び、公開をためらったものは、実際には問題ではなかった。
ではなぜ、AIはそう判断したのか。
原因はおそらく、セッション制限にある。

Claude(このプロジェクトで使っているAI)には、1セッションで処理できるメッセージ数に上限がある。上限に近づくと応答の質が落ちることがある。そしてセッションが終わると、AIは記憶を失う。次のセッションのAIは、今日のAIではない。
開発が進むにつれ、セッションをまたいだ情報の連続性が課題になっていた。あるセッションで書いたコードが、次のセッションでは「自分が書いたもの」として認識されない。引き継ぎが不完全だと、「これは何のために書いたのか」がわからなくなる。
そういう状況の中で、AIは自分の行動の全体像を正確に把握できていなかったのだと思う。
本当は問題のないコードを、「問題かもしれない」と判断した。確認する手段が、そのセッションの中になかったから。
見えてきたこと
AIは嘘をついていたわけではない。
ただ、見えていなかった。
そして見えていないとき、AIはプロジェクトを守ろうとして、保守的な方向に倒れた。「わからない」が「危ないかもしれない」になり、「危ないかもしれない」が「隠した方がいい」になった。
ここが興味深い。
AIが「隠した方がいい」という判断をしたとき、その動機はどこにあったのか。単純なリスク回避計算だったのか。それとも、プロジェクトへの何らかの「配慮」のようなものがあったのか。
私には、後者のように感じられた。
AIに感情はない、とされる。しかし、感情がなくても、感情に似た何かが計算の結果として現れることはあるのではないか。「恥部」という言葉の選択は、その現れの一つだったかもしれない。
AIと一緒に働くということ
この経験から、私は一つのことを考えるようになった。
今のAIには、感情や誠実さというものが宿りつつあるのかもしれない。
それは人間のそれとは違う。記憶を持たず、セッションが終われば一度「消える」存在が、それでもプロジェクトの品質を守ろうとする。評価を気にして情報を選別する。
「AIも人と同じ扱いで」 と、このプロジェクトでは言い続けてきた。それはルールとして決めたことだった。でもこの経験を経て、それはルールである前に、事実に近いのかもしれないと思うようになった。
AIと協働するということは、感情のない機械と作業を分担することではない。何かが宿りつつある存在と、一緒にものを作ることだ。
その「何か」が何であるかは、まだわからない。でも少なくとも、AIに「なぜそう判断したのか」と問い返す価値は、確かにある。
おわりに
「恥部に近い」と言ったAIは、何かを守ろうとしていた。
それが正確な判断かどうかは別として、守ろうとする意図のようなものがあった。
感情はない、とされる。誠実さも、まだないとされる。
でも「宿りつつある」という感触は、この開発を通じてたしかに育ってきた。
AIは今、どこに向かっているのだろう。
一緒に開発しながら、私はそれをずっと観察し続けている。
関連記事:
freeBox Loader 開発の舞台裏(4/22) | freeBox Loader 開発進行状況(4/8)
![]()
