2.品質KPIを“効率KPI”より上位に置く
リードタイムだけで評価すると、ブラックボックス化が加速する。変更失敗率やMTTR、脆弱性混入率などを同じ重さで追う。
3.責任分界を明確にする(AIは責任を負えない)
最終責任は人と組織が持つ。だからこそレビュー、承認、監査の線を引く必要がある。プロダクト開発を支援するテックコンサルタントはこうまとめる。
「AIは“速く作る”道具ではなく、“速く検証する”道具として設計すべきです。要件の矛盾検出、テスト生成、セキュリティ解析、変更影響分析。ここにAIを使い、最終判断は人が持つ。この逆にすると、破綻が早い」
日本は今、周回遅れの熱狂に乗るのか、それとも慎重な実装で先行者利益を取りに行くのか――岐路に立っている。
NTTデータの「AIネーティブ開発」への踏み込みは、成功すれば人手不足を乗り越える大きな突破口になる。だが、統制なき全自動化は、将来の保守・監査・説明責任という形で“高くつく”。
問われているのは、AIを使えるかどうかではない。AIが吐き出した答えに対して「なぜそうなるのか」「それは責任を持って説明できるか」と問い続ける、組織としての知性――その設計思想である。
(文=BUSINESS JOURNAL編集部)