ChatGPTが登場して、1年以上が経ちます。便利に思うこともありますが、まだ使われる場面は限られる、というのが率直な感想です。登場してからもうすぐ2年になる、画像生成AI、Stable Diffusionの方が利用価値が高いです。
ChatGPTが発表されてから、日本語に特化した生成AIが発表されるなど、日々情報を追いかけていますが、あちこちで開発が進んでいます。
現状では、生成AIは大量の電力を消費しますので、PC上でも動くコンパクトなものが欲しいところです。
- Transformerの後継とされる「RetNet」
-
Transformerの後継とされる、「RetNet」が注目されています。論文「RetNet A Successor to Transformer for Large Language Models Explained」によると、新しいモジュール「retention」を使用し、かなり効率が良いとのこと。
- 「Claud3」
-
GPT4を超えると言われる「Claud3」をAnthropicが発表。ちなみに、このAnthropicは元OpenAIの研究者が設立した会社だそうです。
- サカナAI
-
複数のAIを掛け合わせ、交配と生き残りによって、より優れたAIを導き出すという手法で開発。より少ない資源で開発が可能とのこと。
- Google「Gemini 1.5 Pro」
-
入力できる情報を100万トークンにまで拡大。1時間の動画、11時間の音声、3万行以上のコードまたは70万字以上のコードベースなどといった、膨大な量の情報処理が一回で可能になるそうです。
- xAIの「Grok-1.5V」
-
マルチモーダルモデルで、最大の特徴が画像認識能力。