対話型AIがブームですが、使い方には注意が必要です。

対話型AI、”ChatGPT”が毎日のように話題になっています。

私も早速使ってみました。オルゴール曲の解説に使えるか試してみようと、いくつか質問してみました。

それは明らかに違うだろ、というのが3割くらいはありました。

文章もぎこちないので、点数としては、良く見ても30点くらいかな、という印象です。

無料版なので、文章も短めというのは仕方ありません。有料にして精度が上がれば使えそうですが、今のところは無料版のまま様子見です。

Googleも、”Bard”の公開を公表しました。確かに、人間技では不可能な時間で文章やプログラムを作成するのですから、夢の技術です。

今までは、検索精度を上げるために、検索キーワードの入力方法に一工夫する必要がありましたが、検索の方法が大きく変わり、より便利になると思います。

しかし、対話型AIにも欠点というか弱点もあることを認識した上で、利用する必要があります。

このような技術が出てくると、早合点した社長や上役が部下に「これを使え」とゴリ押ししてきて、実は思った通りのことができず、途方に暮れる、という事態が起こりがちです。これは、データさえ入力すれば簡単に答えを出してくれると思われがちなデータサイエンス分野でもしばしば生じています。

この点、画像生成AI、Stable Diffusionは多少の欠点はあるものの、非常に便利な道具で、こちらはかなり実用的と言えます。

目次

現状の対話型AIのビジネス上の問題点

文章としては成り立っているが、内容が事実かどうかは不明

現状では、これがビジネスで使う上で、一番の問題だと思います。

AIは、膨大な文章から学習することによって、質問に対してそれらしい文章を作成して回答するにすぎません。

つまり、中身が事実かどうかは、AIにはどうでもよいというか、そもそもわかりようがありません。裏取りするようにはプログラムされていないので、AIにはどうしようもないのです。これはある意味仕方がない部分でもあります。

というのも、ネット上のデータ自体が玉石混淆で、本当の情報もあればガセの情報もあり、むしろガセ情報の方が多いかもしれません。人間ですら容易に判断できない場合があり、最終的には現地に足を運んだり、大元の情報源に確認を取ったりする必要があったりします。

ネットから集めた膨大なビッグデータを学習させるという点では、自然な文章を作成させることには成功するかもしれません。しかし、作成された文章が正確かどうかまでAIに判断させるということはそもそも難しいと言えます。

あくまで、自然な文章として成り立っているかどうかに着目しているだけなので、平気で嘘をつきます。もっとも、AIには嘘をついている自覚がまったくありません。プログラム通りに出力しているだけなのですから。

「東京のおいしいお店は?」と質問したら、1件だけ実在するお店だったがあとはすべて架空のお店だった、というような笑い話のような書き込みを見ました。

つまり、出力された文章が現実に即しているかどうかは人間が判断しなければなりません。これは、文章を作る以上に大変かもしれません。というのも、出力された文章に対していちいち裏取りしなければならないからです。人の作成した文章を添削するのは意外と骨が折れます。修正だらけで真っ赤になることもあるので、それだったら最初から自分で書いた方が早い、となってしまう場合もあります。

AIには倫理観はそもそもない

差別的な発言をして、運用を一時的にストップしたり、ということもありました。AIには倫理観というものがそもそもありませんので、これを言ったらまずいかな、という判断ができません。(人間でもたまにいるので、AIの問題だけではありませんが。)

知らないものは出力しようがない

当たり前ですが、知らないものは出力できません。学習データに含まれていない情報は出力できませんので、情報が古くて使えない、ということがあります。

これは、税法では問題で、古い情報で判断したら大変なことになってしまいます。今年からダメ、ということは毎年ありますので、常に最新情報にしておく必要があります。損害賠償だけでなく、信用問題になりますので、AIに頼りすぎるのは危険と言えます。

情報漏洩のリスク

これは、翻訳アプリでも同様なのですが、安易に機密情報を入力してはいけません。機密情報がサーバーに保管され、学習データとして再利用されてしまいます。有料オプションの中には、学習データとして利用されない、とされているサービスもありますが、本当かどうか確かめようがないので、基本的には入力しないようにしておく方が無難です。

質問したら、機密情報が出力されてしまった、なんてことになってしまったら大変です。

著作権の問題がクリアか不明

ネット上には著作権がクリアになっていない情報がたくさんあります。出力結果が著作権上問題がない、という保証がないので、最終的には使う側で判断しないといけません。これも嘘かどうかを見抜くのと同様、結構面倒な作業かもしれません。

しかも、著作権侵害はTPPの関係から、非親告罪へと法改正がされましたので、より注意を要するようになっています。

現時点で対話型AIが使える場面

では、ビジネスではまったく役立たずなのか、というとそうでもありません。事実かどうかが問われない場面では問題ないわけですので、

  • 小説、シナリオ
  • プログラムの作成
  • 雛形文書、定型文書の作成

などでは威力を発揮するはずです。

小説、シナリオ

事実かどうかは不明、むしろ嘘だらけである方が良い、という点では、小説やシナリオに一番向いているように思います。すでに、NovelAIが開発されていますが(画像生成AIで有名になりましたが、もともとは文章生成AIです)、小説を自動で考えてくれるというのは非常に魅力的だと思います。物語を作るのは結構大変ですから。

プログラムの作成

プログラムの自動生成も魅力的です。自分で一からプログラムを作成するのは結構大変で、しかも知らないプログラム言語の場合、一から勉強しなければなりませんが、その手間を省くことができます。

ローコード、ノーコードといった、ほとんどプログラミング言語を知らなくてもアプリが制作できるサービスがありますが、これらは駆逐されてしまうかもしれませんね。

もっとも、出力されたプログラムに欠陥があるかもしれないので、丸々信用するのは危険ではあります。

さらに、悪意あるプログラムの作成を依頼することも可能ということで問題になっています。では包丁で人を殺すことができるから包丁はけしからん、となるかというとそれは違う、という議論と同じで、使い方の問題であって、対話型AIの問題ではありません。

雛形文書の作成

事実が問われないという点では、雛形の文書作成も便利な使い方だと思います。

目次