政府、AI活用による人権侵害の実態を調査へ…企業の人事採用基準で差別、著作権侵害の懸念

政府、AI活用による人権侵害の実態を調査へ…企業の人事採用基準で差別、著作権侵害の懸念の画像1
UnsplashのTingey Injury Law Firmが撮影した写真

●この記事のポイント
・日本のAI法は努力義務のみでEUと比べ規制が弱く、開発促進と人権保護の中間的立場
・AIによる人権侵害は大きく3つの分野で懸念され、現行法では対応が不十分
・著作権保護、クリエイター保護、選挙・政治への影響が今後の重要課題

 政府はAI(人工知能)による人権侵害リスクについて実態調査を開始する。7月3日付日本経済新聞記事によれば、6月に施行されたAI関連技術の研究開発・活用推進法(AI新法)に基づき、企業の人材採用における差別の実態などを調査するという。日本企業の間でも採用におけるAI活用が広がるなか、見直しの動きが生じる可能性がある。海外企業ではAI活用により採用面で男女差別が生まれている事例が明らかになっている。

 また、生成AIによってつくられたコンテンツが、クリエイターの著作権を侵害したり、フェイク画像・動画がそこで使用された人物の人権を侵害するケースも想定され、そうした行為に一定の歯止めがかかる可能性もある。日本のAI新法の現状と課題、そして今後必要となる取り組みについて、識者への取材をもとに追ってみたい。

●目次

 

「規制がない」日本のAI新法の実情

 政府がAI活用による人権侵害の実態調査に乗り出した背景について、明治大学専門職大学院ガバナンス研究科教授の湯淺墾道氏は次のように解説する。

「直接的な要因は、6月に施行されたAI新法ですが、AI新法はEUのAI法と異なり、AIの開発をする側、あるいはそのAIを利活用する側両方に対して、特に規制がありません。要するに努力義務しかないんです」

 EUのAI法には、リスクベースなアプローチにより、非常にリスクの高い使い方については禁止規定があり、リスクに応じて慎重な使用を求める罰則を伴った規制が設けられている。これに対し日本のAI新法には罰則規定がないという。

「EUのような厳しい罰則付きの規制を求めていた人たちからすると、人権を守るということについて不十分だということになります。日本政府としては日本がAI技術の開発で遅れをとっている現状を踏まえ、できるだけ開発者に対する規制は入れたくなかったのではないでしょうか。EUのように厳しい罰則も伴ったAI規制を求める声と、逆にAI開発をできるだけ促進したいという声の、いわば真ん中を取るかたちで、政府がAIによる権利侵害を調査して場合によっては指導・助言を行うというかたちで落ち着いたという印象です」

想定される3つの人権侵害分野

 AIの活用による人権侵害としては、大きく3つの分野があるという。

 第1の懸念は、プライバシー情報の収集問題だ。

「AIは学習のためにプライバシー情報、個人情報を幅広く収集するという問題がまず第1点です。第2は、監視・追跡システムへの応用による懸念です。AIと監視カメラを組み合わせることで、例えば個人が特定されて追跡される懸念や、収集した情報を使ってプロファイリングが行われる懸念があります。

 実際にアメリカの一部の裁判所では、AIによるプロファイリングが刑事事件の量刑判断に活用されています。有罪か無罪かは陪審員が決めますが、懲役10年にするのか20年にするのかという量刑は裁判官が決めます。その時にAIで、被告人が再犯する確率を出すわけです。それだけに基づくわけではないですが、それも材料にして裁判官が判断するかたちになっています。