2.人間の学習とAIの学習
ホリエモンちゃんねるで話をしていたことについて、少し触れたいと思います。
(引用開始)「子供の学習について、「認知」は比較的簡単にできます。例えば、目の前にコップがあれば、コップがあるということはわかります。でも、抽象的な概念である「因果律」や「接続詞」は理解できない子供が相当数います。そして、理解できない人たちは、その部分を読まない。
人間はバーチャルな概念(抽象的な概念)を理解できるが、できない人が一定数いて小学校とかのクラスには何人かいます。繰り返し朗読をすることによって、とりあえず表面的には、そういったリアクションとか、「しかし」リアクションっぽいことはなんとなくできるようになります。ただ、本質的には理解していないので、twitterとかで「○〇リプ」飛ばしてくる人は、「しかし」が理解できていない可能性が高いです。私(ホリエモン)が、しかしと書いているのに、「しかし」を読み飛ばすので全く反対のことを私(ホリエモン)が言っているという風にとらえている可能性がある。多分そうだと思う。
穴埋め問題も、たとえば時系列とかその因果関係とかを理解できないと穴埋め問題は解けないんですよ。そういう人が一定数いる。
興味深いAIの話で、chatGPTとかにつながる話を1年半ぐらい前に、エライザというAI作ってる大規模言語モデルLLMの英語ベースが最初なのですが、東大松尾研の出身者がやっている日本語部分を強化したLLMも作っているエライザという会社があって、そこの社長のインタビューしたときに、どうやって大規模言語モデルを作ったのか聞いてみた。
トランスフォーマーというものがGoogleの研究所にあり、これがベースになっているそうなのですが、その上にchatGPTなどがその流れの中にあります。
最初の一歩は「認知」じゃないですか。ディープラーニングをやって最初に成果を上げたのは、画像認識です。画像認識は、脳科学の分野でいえば認知なわけです。そこから、高度な認知とか運動とかの低位のものを統合して思考とかする高度な脳機能の前頭前野とかでやっているような部分をどうやってやらせたかっていうと、「穴埋め問題を解かせた」んですよ。大量のデータを穴埋め問題にして、そこに何が入るのかっていうことをAIに入れたら、飛躍的に賢くなって、しかも入れるデータの桁数を3桁とか上げたら、指数関数的に賢くなったという部分で、chatGPTが注目されている理由なんです。が、それってもしかして因果律理解しているの?表面的に因果律が理解しているような挙動を示すわけですよ。これって人間じゃないですか。・・・・・・・」(引用終わり)
すごく興味深く聞き入ってしまいました。AIのディープラーニングに穴埋め問題を解かせることで因果律がわかるようになった話です。全員とは言いませんが、人間にも効果的な学習として機能するのではと思ってしまいます。私自身、穴埋め問題を活用していましたから。