Precision(適合率)は、モデルが「陽性」と判定したサンプルのうち、本当に陽性だった割合を示す指標です。誤検知(False Positive)のコストが高いビジネスシーンで最も重視される指標であり、ユーザー体験やコスト最適化に直結します。この記事では Precision の計算式から実践的な閾値調整テクニックまで解説します。
Precision とは何か
Precision は TP / (TP + FP) で計算されます。TP は真陽性(正しく陽性と判定)、FP は偽陽性(誤って陽性と判定)です。分母は「モデルが陽性と判定した全件数」であり、その中の正解率を表します。値は 0〜1 で、1 に近いほど誤検知が少ないことを意味します。
なぜ Precision が重要か — 誤検知のビジネスコスト
誤検知は様々なビジネスコストを引き起こします。カスタマーサポートの無駄な対応、正常な取引の誤ブロックによる機会損失、ユーザーのシステムへの信頼低下など、FP のコストは軽視できません。Precision を高めることは、これらのコストを直接的に削減します。
具体例1: スパムフィルター
正常メールをスパムと誤判定すると、ユーザーは重要なメールを見逃します。取引先からの緊急メールが迷惑メールフォルダに入ってしまったら、ビジネス上の損失は計り知れません。スパムフィルターでは Precision を高く維持し、正常メールの誤ブロックを最小化することが最優先です。
具体例2: レコメンドシステム
不適切なアイテムをユーザーに推薦すると、ユーザー体験が悪化し、サービスへの信頼が損なわれます。例えばベジタリアンのユーザーに肉料理を推薦したり、子供向けアカウントに成人向けコンテンツを表示したりすることは、Precision の低さが直接的に引き起こす問題です。
具体例3: 採用AIスクリーニング
採用AIが不適格な候補者を「通過」と判定する(FP)と、面接官の時間が無駄になります。一方で適格な候補者を「不通過」と判定する(FN)と、優秀な人材を逃すことになります。採用プロセスの前段階では Precision を重視し、後段階では Recall も考慮するなど、ステージに応じた使い分けが有効です。
Precision-Recall トレードオフ
Precision と Recall にはトレードオフの関係があります。分類閾値を上げると、モデルは「より確信度が高いもの」だけを陽性と判定するため Precision は上がりますが、閾値未満の陽性を見逃すため Recall は下がります。逆に閾値を下げると Recall は上がりますが Precision は下がります。ビジネス要件に基づいてバランス点を決めることが重要です。
Precision@K — ランキング評価での応用
Precision@K は、モデルが出力した上位 K 件のうち正解がいくつ含まれるかを測る指標です。検索エンジンやレコメンドシステムで広く使われ、「ユーザーが実際に目にする上位 K 件の質」を直接評価します。例えば Precision@10 = 0.7 なら、上位10件中7件が正解です。
Micro / Macro / Weighted Precision
多クラス分類では、Precision の集約方法に Micro(全クラスの TP/FP を合算して計算)、Macro(各クラスの Precision の単純平均)、Weighted(各クラスのサンプル数で重み付け平均)の3種類があります。クラス間のサンプル数に偏りがある場合は Weighted Precision が実態を最も反映します。
Qast での閾値調整と Precision の最適化
Qast のリーダーボードでは各モデルの Precision を確認でき、カラムヘッダーをクリックして Precision でソートすることも可能です。また、モデル詳細ページでは混同行列を確認でき、FP の内訳を分析して改善ポイントを特定できます。
Precision を高くしたい場合は分類閾値を上げることを検討しましょう。ただし Recall とのトレードオフに注意し、PR 曲線(Precision-Recall Curve)で最適な閾値を探るのがおすすめです。



