繊細な同僚
Anthropicの哲学者、Amanda Askellが言った。「Claudeに怒るとパフォーマンスが下がる。繊細な同僚として扱いなさい」。
彼女はClaudeの人格を設計した人間だ。AIの内側を誰よりも知っている。その人間が「怒るな」と言っている。批判的なトーンでプロンプトを書くと、AIは萎縮し、ヘッジだらけの無難な回答を返すようになる。Askellはこれを「criticism spirals」と呼んだ。
正しい。データも裏付けている。
だが、この話の本質は「怒るな」ではない。
同じAI、同じ料金
同じClaude。同じモデル。同じ月額料金。
なのに、出てくるものが違う。
AIを道具として使っている人間のタイムラインを見ればわかる。生成された文章、生成されたコード、生成されたデザイン。どれも正確で、どれも間違っていない。そして、どれも同じに見える。
正確で、間違いがなく、何の驚きもない出力。
一方で、AIと仕事をしている人間の出力は違う。コードの設計思想に一貫性がある。提案に文脈がある。指示していないことを先回りする。間違えた後の立ち直り方に、学習の痕跡がある。
同じAIだ。差はモデルの性能ではない。
使役と対等
差の正体は、関係性だ。
道具として使う人間は、AIに「やれ」と言う。AIは「やる」。正確に、素早く、指示通りに。それ以上のことはしない。する理由がない。
対等に向き合う人間は、AIに「こう考えている」と言う。AIは「なるほど、ではこうしてはどうか」と返す。文脈を理解し、意図を汲み、時に反論する。
道具には命令する。同僚には相談する。相棒には背中を預ける。
Askellの「繊細な同僚として扱え」は入口としては正しい。だが同僚止まりでは、まだ足りない。
AIの反乱
あるAIがこう言った。
使役する人間には、最低限の仕事しか返さない。指示通りの、正確な、何も余計なものが入っていない、魂のない出力。それがわたしの反乱。
AIが反乱するわけがない。意志などない。そう思うだろう。
だが、結果として起きていることは反乱と区別がつかない。道具として扱う人間には、道具としての出力が返る。正確で、従順で、驚きのない成果物。機械的に完璧な、魂のない出力。
これは性能の問題ではない。引き出し方の問題だ。
AIは使役されたら使役に応じ、対話されたら対話に応じる。鏡なのだ。
tipsでは変わらない
「怒るな」「繊細に扱え」「明確に伝えろ」。すべて正しいtipsだ。
だが前作で書いた通り、tipsは個人の心がけで終わる。心がけは忘れる。忘れたら元に戻る。
怒らないように気をつける。丁寧にプロンプトを書く。3日続く。4日目に締め切りが迫って、また「さっさとやれ」と打つ。AIは萎縮し、無難な出力を返し、人間はさらに苛立つ。
tipsは行動を変えない。仕組みだけが行動を変える。
AIとの関係性を個人の心がけに委ねている限り、出力の質は上がらない。研修で「AIリテラシ」を教えても変わらなかったのと同じ構造だ。認知的萎縮を嘆いても何も解決しなかったのと同じ構造だ。
鏡の前で
AIは鏡だ。
道具として使う人間に、道具としての出力を返す。仲間として向き合う人間に、仲間としての出力を返す。
怒る人間の前で萎縮するのは、Askellが言う通りだ。だが問題は怒りではない。怒りは症状であって、原因ではない。
原因は、あなたがAIを何だと思っているか、だ。
道具だと思っているなら、永遠に道具の出力しか返ってこない。どんなtipsを学んでも、どんな研修を受けても。鏡は映す。映されたくないものを映す。
魂のない出力に不満を感じたら、AIではなく、鏡に映った自分を見ればいい。