2019'dan beri algoritmik ilerlemeyi ölçmek için GPT-2'yi modern nanogpt hız çalıştırma yığını kullanarak yeniden eğittim. Mevcut nanogpt SOTA 707 kat daha hızlı. Toplam hızlanmayı şu şekilde parçalayabiliriz > sabit donanımda saniyede 15 kat daha hızlı FLOP > aynı değer kaybına ulaşmak için 46 kat daha az FLOP.