GPT-1
Yazeka
5 farklı kaynaktan alınan bilgiyle göre
GPT-1, OpenAI tarafından 2018'de geliştirilen ilk üretken dil modelidir. Transformer mimarisi üzerine kurulu bu model, metin oluşturma, soru cevaplama ve çeviri gibi doğal dil işleme görevlerinde kullanılır.
117 milyon parametreye sahip olan GPT-1, BooksCorpus ve Common Crawl gibi büyük veri kümeleri üzerinde eğitilmiştir. Ancak uzun metinlerde tutarlılık sağlama ve bağlamsal akıl yürütme konusunda sınırlıdır.
GPT serisinin temelini oluşturan bu model, sonraki nesillerin öncüsü olarak görev odaklı ince ayar (fine-tuning) yaklaşımını benimsemiştir. Bu yöntem, modelin belirli NLP görevlerinde daha etkili kullanılmasını sağlamıştır.