Playback speed
undefinedx
Share post
Share post at current time
0:00
/
0:00

大規模言語モデルのイメージを持って、ChatGPTを使おう(後編)

後編では「大規模言語モデル」が、生成系AIと呼ばれる理由を体験します。実際に、ChatGPTに言葉を入れることによって、どんなことが起こるか?を実験します。ぜひ、あなたの同じように実験してみてください。

#chatGPT

前編では「ChatGPTの裏側」にある大規模言語モデル(LLM)のイメージを説明しました。また、学習と呼んでいるものが何か?(実は、調整と呼んでいい。あるいは、関数の係数(パラメータ)を決定していると言っても良い)のイメージを説明しました。

それらのイメージを持った上で、ここでは「実際に、言葉を入れて生成させてみる実験」を行なっています。実験を通じて、いろんな気づきがあると思います。

是非、楽しんでご覧ください。また、ご自身でも、あれこれ実験を行なってみてください。

特に、昔話を生成させると、言語モデルが「海外のデータが多いんじゃないか?」と思える節がたくさんあります。そのようなことも、楽しんでもらえると、良い入門になると思います。

0 Comments
Web寺子屋
Web寺子屋
Authors
toiee Lab 亀田