【ジーピーティー】
GPT とは?
💡 文章の続きを予測する天才「AIの文豪」
📌 このページのポイント
GPTってどうやって文章を作るの?
基本原理はすごくシンプルで「次に来る単語を予測する」の繰り返しなんだ。「今日の天気は」と入れると「晴れ」が来そうだと予測し、「今日の天気は晴れ」から次の「です」を予測し……と一語ずつ生成していくよ。
BERTとは何が違うの?
バージョンが上がるたびに何が変わったの?
GPTって嘘をつくことがあるって聞いたけど本当?
本当だよ。GPTは「次に来そうな単語」を予測しているだけで、真偽を判断しているわけではないんだ。だからもっともらしいけど事実と異なる回答(ハルシネーション)が発生する。特に最新の情報や専門性の高い内容では注意が必要だよ。
GPTの学習データってどこから来てるの?
インターネット上の大量のテキストデータだよ。Webページ・書籍・論文・Wikipediaなどが含まれている。ただし著作権やプライバシーの問題が議論されていて、New York TimesがOpenAIを著作権侵害で提訴した事例もある。学習データの透明性と権利処理は、AI業界全体の大きな課題なんだ。
📖 おまけ:英語の意味
「Generative Pre-trained Transformer」 = 生成的な事前学習済み変換モデル
💬 「Generative(生成する)」「Pre-trained(事前学習済み)」「Transformer(変換器)」の頭文字。テキストを生成できる事前学習済みのTransformerモデルという意味だよ