前回の記事(機械学習入門⑥)では、製薬会社の離職問題を題材に、データ探索・フィーチャーエンジニアリング・予測モデル作成の流れを書いた。
今回はその続きとして、「どう打ち手に落とし込むか」「AIを使うことのリスクは何か」という、より経営・思想的な問いに踏み込んだ内容だ。
ふたつのアプローチ:分析 vs AI予測
離職問題への対処法として、大きく2つのアプローチが整理された。
①分析的アプローチ(CRT/BANアプローチ)
データを集計・可視化し、傾向から原因を推測して打ち手を決める。「若手営業の残業が多い→残業削減・人員補充」「女性管理職の育児支援不足→育休・時短制度の拡充」といった、集団(セグメント)に対して均一な施策を打つ発想だ。
②AI予測アプローチ(TCT/ADSアプローチ)
機械学習で「誰が離職しそうか」を個人単位で予測し、予測離職率が高い人に絞って打ち手を実行する。「離職予備軍ランクAの4名・ランクBの72名に対して、上司にアラートを送り1on1を強化する」——固有名詞レベルで個別化した対応が可能になる。
どちらが優れているか、ではない。適した場面が異なる。
AI予測アプローチの3つのメリット
AI予測アプローチの強みは、分析的アプローチでは実現できないスケールにある。
- 汎用性:一度予測モデルを作れば、担当者の経験・勘に依存せずどの組織でも同じ精度で使える
- 即時性:インプットデータが更新されれば、ほぼリアルタイムで予測結果も更新できる。「先月と比べてAさんの離職スコアが急上昇している」を自動で検知できる
- 規模の経済性:対象者が増えても、打ち手のバリエーションが増えても、コストが大きく膨らまない。SaaSとしてクラウドで広く提供するほど真価を発揮する
Jeff Bezosが1998年に語ったとされる言葉が授業で引用された。「もし450万人の顧客がいるなら、1つの店を持つべきではない。450万の店を持つべきだ。」——AI予測による個別化は、まさにこの発想の実装だ。
AI予測アプローチの落とし穴:バイアスの問題
しかし「AIだから客観的・公平」と思ってはいけない。ここが今回の授業で最も考えさせられたテーマだった。
AIにバイアスが混入する経路は2つある。
- アルゴリズム:説明変数に何を選ぶかは、そもそも人間の判断だ
- データ:過去のデータに人間社会のバイアスが含まれていれば、それをそのまま学習してしまう
たとえば「過去に男性中心だった職場の採用データ」を使って採用AIを作れば、女性にとって不利な予測になる可能性が高い。実際にAmazonがオンライン採用ツールを開発・使用した事例では、性別データそのものは使っていなかったにもかかわらず、履歴書の文体や記載内容に性差が反映されており、結果的に女性を不当に低評価するモデルになっていた。
AIは「過去から学ぶ」ツールだ。過去に差別や偏りがあれば、それを無邪気に再現・強化してしまう。「機械が判断したから公平」という思い込みが、むしろバイアスを見えにくくするという逆説がある。
個人データと倫理:Cambridge Analyticaの教訓
AI予測をさらに大規模に悪用した事例として、Cambridge Analytica事件が紹介された。
2016年の米国大統領選挙で、トランプ陣営が雇った同社はFacebookから(不正に)取得した約5,000万人のプロフィールデータをもとに、個人の性格傾向を予測し、一人ひとりにカスタマイズしたメッセージを届けた。
これはまさにAI予測の個別化能力を使っているわけだが、その用途が選挙での世論操作だ。技術的には「AI保険料率」も「採用スクリーニング」も「政治的マニピュレーション」も、同じ仕組みの上に成り立っている。
「技術的にできること」と「やっていいこと」は別の問いだ。この感覚は、機械学習を学ぶ上で常に持ち続けなければいけないと思った。
生成AIは雇用をどう変えるか
講座ではもうひとつ、生成AIと雇用に関する最新の研究が紹介された。スタンフォード大学のBrynjolfsson教授らによる2025年の論文「Canaries in the Coal Mine?」だ。
主な知見はこうだ。
- ChatGPT登場以降、AIの影響を受けやすい職種(ソフトウェア開発者・カスタマーサービス等)の若年層(22〜25歳)の雇用が約20%近く減少
- 同じ職種でも経験豊富な層への影響は相対的に小さい
- 看護助手のようにAI露出度が低い職種では雇用は安定・増加傾向
「炭鉱のカナリア」というタイトルが示すとおり、若年層の雇用変化がAI革命の最初の警告信号になっているという論旨だ。
1997年からIT業界にいる身として、この数字は他人事ではない。システムの仕事はますますAIが補完・代替できるようになっている。一方で「AIが出した材料をもとにビジネス文脈で判断できる人」の価値は上がっていく。この講座で学んでいることは、まさにその感覚を育てるものだと感じた。
機械学習入門①〜⑦を振り返って
この連載でのケース学習を振り返ると、こんな流れだった。
- ①(タイタニック):機械学習の概念導入、2クラス分類・混同行列・過学習
- ②③(ソーシャルレンディング):分類のビジネス適用、しきい値・リコール・プレシジョン
- ④⑤(自動車保険):回帰(連続値予測)のビジネス適用
- ⑥⑦(製薬会社の離職問題):自力でのフルプロセス実践、分析 vs AI予測アプローチ、バイアス・倫理
「AIを使いこなすビジネスリーダー」というのは、コードが書けることでも、最新アルゴリズムを知っていることでもない。「何を予測したいのか」を正しく問い、「予測結果をどう使うか」を倫理的に判断し、「結果を非専門家に説明できる」人のことだと、この一連の学びを通じて感じた。
→ 【機械学習入門⑧の記事はこちら】※公開後リンク追加予定

