AIの学習データが汚染されたら

今後大きな問題になるのが、AIの学習データの汚染(データポイズニング)でしょう。アメリカでのAI活用の初期の頃は、偏ったデータによって、優秀な教員がクビになるという事態を招きましたが、学習データを意図的に改竄してしまった場合、出力される結果も当然おかしなものになってしまい、そのAIは使い物にならなくなってしまいます。

使い物にならないならまだしも、間違った結果を鵜呑みにして行動してしまっては確かに災害級となってしまいます。今でもすでにChatGPTの出力を無条件に信用してしまう人も続出しているので、AIデータの汚染で洗脳も容易になるでしょうね。

AIエージェントの乗っ取り被害は災害級 サイバー防衛各社の対策は

2025年9月30日 日本経済新聞
目次