20XX年問題、みたいな言い方をされることがありますよね。
IT関連だと「2025年の崖」みたいなやつですね。
AIにも2026年問題というものがあるようです。
AIの2026年問題って?
「AI用の学習データが底をつく」ことを指すようです。
ChatGPTのような生成AIは、LLMという大規模言語モデルですが、LLMの精度の元ネタは膨大な学習データなのです。
追加の学習データがない = AIの精度が上がらない
ということを2026年問題と言っているようです。
学習データの未来
学習データを機械的に作り出す、といったことはされていくと思いますが、本質的には違うのでは?と感じています。
というのは、学習データの質の問題です。
ChatGPTは汎用的な回答を返しますが、個々の事業における専門的な回答が欲しい場合、そうしたインプットデータが必要になります。
※たくさんの企業が目の色変えてトライしている分野ですね。
つまり、AIにしてほしいことに対する学習データが必要なわけです。
こうした質の問題については、個人的には非常に危惧しています。
Webの記事なども学習データとして活用されていますが、生成AIの台頭により、品質の低い記事が大量生産されています。
(そもそも、SEO対策などで、品質の低い、金太郎飴的な内容もたくさん増えていますね・・・)
さらに、本当に質の高いものは、有料化や非公開といった方向にも向かっていると感じます。
そうなると、この先未来の質の高い学習データはどこから得ればよいのでしょうか。
人間に求められるもの
そもそもですが、現状の生成AIは、過去データを元に「っぽいこと」を返しているにすぎません。
延長線上にない、人間が好ましいと思う未来を創るには、人間が必要でしょう。
人間が面白いと思えるモノなども、人間でないと分からないことが多々あるでしょう。
逆に言うと、人間が必要とされる部分はこうした点にあり、「AIでいいや」という分野で戦っていくのは厳しい世界になっていくでしょう。
「あなただから」が、加速度的に必要とされる世界が、もう目の前に来ていると感じます。
※あくまで「お仕事として求められるもの」という意味合いです。人間そのものの本質的なことを言っているわけではありません。
メルマガ『Professional's eye』
"意見が持てる"デジタルコラム
週1回配信、3分で楽しめます。
送信いただいた時点で「Privacy Policy」に同意したとみなします。
広告を含むご案内のメールをお送りする場合があります。