行儀の良いAIでは困る場面がある

爆薬や銃の作り方、ウイルスソフトの作り方など、AIによって人に危害を加える情報を提供されるのは確かに困ります。

昔なら、そんな情報どこから入手したら良いか、裏社会に入り込まない限り、手段すらわかりませんでしたが、今は家にいながらあらゆる情報が手に入ってしまいます。

入手した情報を悪用するのはもちろんダメですが、かといって、悪用される恐れがあるからと事前にシャットアウトするのも考えものです。

包丁も人を殺す道具になり得ますが、だからと言って、包丁を売るなとなったら、料理ができなくなってしまいます。それと似た面があります。

例えば、AIを使って小説を書く場合。特に推理小説などは、殺人や誘拐など、悪が登場しなければ話にならない場合があります。AIがこれらのキーワードが出そうになったら、出力してくれないとなると、推理小説の作成にAIは使えない、と言うことになります。ほんわかとした小説ばかりになってしまいます。

それだけではなく、事件など多くのニュースも出力できなくなるのではないかと思います。これはこれで、非常に偏ったAIになってしまいます。これでは使い勝手が悪く、普及の妨げになってしまうような気がします。

生成AI使った犯罪防げ リコー「悪意の指示」排除 暴力やヘイト、14種認識

リコーは自社の生成AI(人工知能)サービスで、暴力や犯罪に関連した回答の生成を防ぐ仕組みを導入する。利用者の指示が安全かどうかを14分類から判定し、満たさない指示については事前にはじく。生成AIを悪用した犯罪が相次ぐなか、安全性の担保につなげる。

2025年8月29日 日本経済新聞
目次