OpenClawで使うモデルをOpusからHaikuに落とした。
Anthropicの使用量が想定以上に伸びて、Weeklyの上限が見えたからだ。日次でタスクが積み上がる設計にしていたので、文脈整理をOpusに任せる回数が静かに増殖していた。
前からわかっていたことがある。AIの時代、知能はある程度まで金額で選べる。
昨晩、あえてOpusからHaikuに切り替えた。
深夜バッチのレポート品質がはっきり落ちる。ログの文章が浅い。拾えていたニュアンスが消える。説明は成立しているのに、何かが足りない。ここでやっている事は、処理をAIにまかせているという粒度だと説明しにくい。
処理全体をAgenticにして、判断単位そのものをLLMで行えるように設計してきた。人に作業をお願いするとその人の品質に依存するような状態である。だから、使用するLLMのモデルを変えると、単に精度が落ちるのではなく、思考のリズムが変わる。例えばコンテキストウィンドウが小さくなると、思考の可動域も狭くなる。結果として、全体の流れが少しずつ痩せていく。
これ、人の組織とよく似ている。高い能力の人がいれば、複数工程をまとめて処理できる。能力が下がれば、工程を細かく分解し直さないと回らない。同じ仕事でも、設計は変わる。OpusとHaikuの切り替えは、その設計変更を身体で理解させてくる。
どこに高性能を置くか。
どこは軽量でよいか。
全体のバランスはどこで崩れるか。
企業がやっているのと、構造は同じだ。
深夜、モデルを変えて、レポートの質が揺れるのを眺める。品質が下がった、というより、思考の厚みが薄くなったのがわかる。
ああ、ここにお金を払っていたのか、と思う。知能の値段が見えた、というより、知能の“厚み”が減った瞬間を見た、というほうが近い。
現状、クラウド側の処理にコストを払う状態なのだが、定額を超えた従量課金の体系を見ていると、俄然、チップに与えた電力で性能が発揮されるローカルAIに投資した方が良いのではないかという気持ちも大きくなってしまう。