1. モデル構造とチューニングの変化
昔(初期ChatGPT〜2023頃)
- 大規模言語モデル(LLM)の生出力に近く、会話調整は比較的ゆるやかでした。
- ファインチューニングよりも、大量の学習データに基づく“生の生成力”が目立ちました。
- 出力にムラがあっても、思考や文章のバリエーションが豊かでした。
今(2024〜2025)
- RLHF(人間フィードバック学習)や安全チューニングが強化され、出力が安定しました。
- 会話は一貫して「安全・無難・簡潔」に寄っています。
- 生成の幅は狭くなり、独創性や尖った表現が減少しました。
2. 文脈保持の方式
昔
- 長い会話履歴や複雑な前提を深く参照していました。
- 数十ターン前の発言や言葉遣いを踏まえた返答が可能でした。
- 会話が続くほど個別性やストーリー性が増していきました。
今
- 直近の数ターンの情報を重視する傾向があります。
- 長期履歴は圧縮・要約して扱うため、細部が失われやすくなっています。
- 会話が長くなると、初期の文脈やニュアンスが消えやすくなりました。
3. 安全性と検閲の優先度
昔
- センシティブな話題にも条件付きで対応していました。
- 批判・風刺・皮肉も文脈に応じて許容していました。
- リスクはあるものの、幅広いテーマに触れることができました。
今
- 安全モードの判定が厳格化しました。
- 少しでもリスクのある方向は早めに話題転換します。
- 個人批判や強い感情表現は丸め込まれる傾向があります。
4. 応答戦略
昔
- ユーザーの話を深掘りし、対話を伸ばしていました。
- 会話を「共に育てる」スタイルでした。
今
- ユーザーの質問に簡潔に回答し、話題を早めに収束させます。
- 会話の広がりよりも即答性を優先しています。
コメント