【ジーピーティーモデル】
GPTモデル とは?
💡 生成AIブームの主役、「文章を続ける」だけで世界を変えた
📌 このページのポイント
GPTって何の略なの?
Generative Pre-trained Transformerの略だよ。「大量の文章を事前に読んで学習した、文章を生成するAI」ってことだね。ポイントは「事前学習」で、インターネット上の膨大なテキストをあらかじめ読み込んでいるんだ
なんで「次の単語を予測する」だけであんなに賢くなれるの?
これは研究者も驚いた現象なんだけど、「次の単語を正確に予測する」ためには文脈の理解、論理的推論、世界知識が必要になるんだ。十分な規模のモデルに十分なデータを与えると、それらの能力が自然と身につく。これを「創発的能力」と呼ぶよ
OpenAIだけが作ってるの?
GPTはこの先どうなるの?
📖 おまけ:英語の意味
「Generative Pre-trained Transformer」 = 生成的な事前学習済みトランスフォーマー
💬 Generative(生成する)、Pre-trained(事前学習済み)、Transformer(変換器)の頭文字だよ。大量のテキストで事前に学習した生成モデルという意味がそのまま名前になっているんだ