運用性:120bは単一80GB GPUで推論可、20bは16GB級メモリでも動作可能とされ、クラウド/オンプレ/エッジまで展開しやすいのが強みです(それぞれ、80万円/15万円程度で買えるパソコンで使える)
安全性:OpenAIの Preparedness Framework下での追加評価レイヤー導入やシステムカードが用意され、同社内の安全性ベンチマークでフロンティア系に準じる水準と説明されています
用途としては、クラウドに機微データを出せない現場や、レイテンシ/コスト/カスタマイズを最適化したい企業に有効です。ローカル運用であればプロンプトは自社環境外へ出ません」
前述のとおり、OpenAIは近年、情報の公開を限定するかたちでAI言語モデルをリリースしてきたが、ここへきて5年ぶりにオープンウェイト型のモデルをリリースした理由は何であると考えられるのか。
「あくまで私見ですが、以下が重なった結果だと考えます。
・データ主権・コンプライアンス要件に応えるローカル/オンプレ需要
・開発者エコシステムの奪還(Llama/Qwen等へ流れていた)
・『プライベートAI』市場の拡大(企業内での自律エージェント運用やツール連携)
・中国勢の高性能オープンモデルへの対抗」
(文=BUSINESS JOURNAL編集部、協力=大塚あみ/合同会社Hundreds代表)