昨年から、すごいスピードで生成AIが進歩しています。
今や、自動翻訳は当たり前で、YouTubeも自動翻訳で字幕を付けてくれますので、外国語でしゃべっていても、ある程度の意味を汲み取ることができます。英語のページもほぼ翻訳して読んでいます。日本語で書いてあると理解が早いです。
ChatGPTやGitHub Copilotを使えば、プログラムも書いてくれます。
では、翻訳やプログラミング、文章作成をAIがやってくれるということで、外国語やプログラミングなどの勉強はしなくてもよいか、というとむしろ逆です。
生成AIを使いこなすためには、さらに勉強が必要になってきます。
専門家の仕事がなくなるかも
質問すれば、答えば返ってくるので、回答の精度が上がれば、いずれ専門家は不要になるかもしれません。わたしのように、専門的なコンサルティング業務を行っている者も不要になってしまう気がします。
税理士も無縁とは思えません。複雑な税法も、AIが分析することで、各人に合わせた税務コンサルティングもできるようになるでしょう。税理士が考えつかないような提案をするかもしれません。
町の開業税理士は、AIを使いこなせないと駆逐されてしまうと思います。しかも、そう遠くない将来でしょう。
ただし、これらはあくまで平均以下の場合でしょう。生成AIを使いこなすことで、より依頼が増える専門家がいる一方で、従来のありきたりな仕事しかできない専門家が駆逐されていく、という世界になると思います。
AIの答えを鵜呑みにしない
AIがすべてやってくれるからといって、AIの出力をすべて鵜呑みにすると、思わぬ落とし穴にはまる恐れがあります。
特に、AIが出したから正確、とみんなが考えるようになったら非常に危険です。現にアメリカではいくつかの問題が起きています。AIが採用に関わることで、かえって優秀な人を不採用にしていた、ということが判明したということもあったとか。
AIが出した答えが正しいかどうかを見破る知識を持っていないと、間違った方向に進む危険性が高くなります。
外国語を知らないと通訳に頼らざるを得ませんが、その通訳が本当に正しく翻訳しているかどうかは、その外国語を知らないと判断できないのと同じです。その通訳が信用できるのか。もし重要な契約の場で、通訳が取引の相手方とグルで、こちらに不利な通訳をするかもしれません。ある程度の外国語の知識があれば、その通訳が信用できるか判断することが可能になります。
プログラミングも同様で、生成されたプログラムが正しくて安全か動かしてみるまでわからないようでは危なくて仕方ありません。実はウイルスで、実行した途端に乗っ取られたり、壊されてしまうかもしれません。
役所や国会がAIに判断を委ねるようになったら危ないです。
- 「嘘も100回言えばまことになる」ということわざの通り、AIはものすごい数の嘘を撒き散らす可能性があり、その嘘が多数を占めてしまうと、それが本当であるかのように思い込ませることが可能になる。
- すると、意図的にAIに多数派の意見を作らせることが可能。
- つまり、AIを使えば、洗脳が可能になる。
AIに依存しすぎると、いずれ人間は考えなくなるでしょう(すでに作文や論文を作成させたりしている)。そうなると、AI教の教祖の言うことならなんでも聞くという、恐ろしい事態を招くことになってしまいます。
これがAIが人間を滅ぼすと警鐘されていることだとわたしは理解しています。
AIが出した答えが正しいかどうか、判断できる程度の知能は備えておきたいですね。
画像生成AIはほぼ使える段階になった
画像生成もかなり性能が良くなり、ほぼ実用的になったと思います。
ただし、仕事として使うには、あともう少し、という感じです。というのも、性能自体は急激に良くなっているのですが、手があやふやなことや、一見すると整っているように見えても、よく見ると身体の線が繋がっていない、といったことがあるからです。
わたしの場合、インスピレーションのネタにしているだけなので、多少歪んでいても、そのまま使うわけではないので、今のままでも十分です。
Pythonさえ使うことができれば、ローカル環境で、無料で(電気代だけですが、NVIDIAのGPUを使うよりも電気代ははるかに安い)、Apple Siliconでもストレスなく無制限に生成できるので、画像生成AIは手放せなくなりました。
文章生成AI
ChatGPTの公表から、文章生成AIが雨後の筍のように出ています。
Metaから、GPUなしでローカル環境でも実行できる「NLLB200」が発表されました。
日本語ではサイバーエージェント社のopen-calmが無料で使えたり、と日々新たなものが出現し、爆発的な広がりを見せています。
この文章生成AI、文章としてとても滑らかで、話としてはつじつまが合っているので、一見すると信じてしまいそうになります。
しかし、基本的に言葉というのは、
- 真実を語っている
- 嘘だけどもっともらしく語っている
のどちらかであり、わたしたち人間も日々、本当のことを話したり、知らないことについてはごまかして知ったかぶりをすることがあると思います。AIも例外ではありません。もっとも、AIは確率で文章を作っているだけなので、知らないと思われるのが恥ずかしいから誤魔化すとか、嘘をつくといった概念がそもそもない点が違います。
わたしたちが日常生活で、この人は本当のことを言っているのか、誤魔化しているのか、判断をするように、AIが出力するものが正しいかどうか判断しなければなりません。
ここで厄介なのが、AIには属性がないことです。人間の場合、特に日本人は真面目な人が多いので、そんなに話していることを疑うことはないと思います。この人は嘘をつかない、信用できる人とわかっている場合はほぼ鵜呑みにすると思います。また、言葉だけで判断しているわけではなく、目の動き、仕草などから何か怪しいと感じることもあります。いつもと違う、ということから、問い詰めると嘘だった、ということもよく経験することです。
ところが、AIの場合は、毎回出力が違います。確率によって真実が出てくることもあれば嘘が出てくることがあります。ガチャガチャと一緒です。なので、毎回疑わないといけない点が面倒臭い点です。
このAIは信用できる、といった判断ができないところが厄介です。