Google Araştırma ekibi, çok dilli çeviri kalitesini önemli ölçüde artıran yeni bir yapay zekâ dil modeli olan ‘Multilingual Transformer 2’yi (MTr2) yayınladı. Model, önceki modellere göre daha yüksek doğruluk oranlarına ve daha akıcı çeviriler üretme yeteneğine sahip. MTr2 modeli, açık kaynak olarak kullanıma sunulmuştur.

MTr2, daha büyük bir veri seti üzerinde eğitilmiş ve daha gelişmiş bir mimariye sahip. Bu sayede, farklı diller arasındaki ince nüansları daha iyi anlayabiliyor ve daha doğal çeviriler üretebiliyor. Özellikle düşük kaynaklı diller için çeviri kalitesinde önemli iyileşmeler sağlıyor. Model, 100'den fazla dilde çeviri yapabiliyor ve çeşitli çeviri görevlerinde önemli ölçüde daha iyi performans gösteriyor.

MTr2'nin açık kaynak olması, araştırmacılar ve geliştiricilerin bu modeli daha da geliştirmelerine ve farklı uygulamalarda kullanmalarına olanak tanıyor. Ancak, modelin performansı, çeviri yapılacak metnin karmaşıklığına ve dil çiftine bağlı olarak değişebiliyor. Ayrıca, kültür ve bağlam gibi faktörlerin çeviri kalitesini etkilediği de unutulmamalıdır. (Kaynak: Google AI Blog, arXiv)