Apple, yapay zekâ alanındaki son araştırmasında, büyük dil modellerinde yaygın olarak görülen İngilizce merkezli dil ön yargısını ele aldı. Teknoloji devi, çok dilli yapay zekâ sistemlerinin diğer dillerde daha doğal ve yerel görünümlü sonuçlar üretmesini sağlamak amacıyla geliştirdiği yeni yöntemle, alandaki önemli bir soruna dikkat çekti.
Inria Paris, École Polytechnique ve Sapienza University of Rome iş birliğiyle yürütülen bu araştırma, yapay zekâ modellerinin neden İngilizce dışındaki dillerde hala İngilizce dil yapılarıyla düşünmeye devam ettiğini ve bu durumun nasıl aşılabileceğini inceliyor.
Yeni Kriterler: Sözcüksel ve Sözdizimsel Doğallık
Apple’ın araştırması, dil modellerinin yerelleşme başarımını ölçmek üzere iki yeni değerlendirme ölçütü ortaya koydu:
-
Sözcüksel Doğallık: Modelin, kelime seçiminde ana dili konuşanlar gibi doğal tercihler yapıp yapmadığını ölçüyor.
-
Sözdizimsel Doğallık: Cümle yapılarının yerel dilbilgisine uygunluğu esas alınıyor.
Bu kriterlerle yapılan testlerde, modellerin ürettiği içerikler, Çince, Fransızca ve İngilizce Wikipedia makaleleriyle karşılaştırılarak değerlendirildi. Bulgular, dil modellerinin İngilizce dışında da yerel dile uygunluk sağlaması için yeni dil veri stratejileri ve modelleme teknikleri gerektiğini gösterdi.
Yapay Zekâda Kültürel Uyumun Önemi
Apple’ın araştırması, yapay zekâ alanında sıklıkla göz ardı edilen bir konuyu gündeme taşıyor: dilsel çeşitlilik ve kültürel uyum. İngilizce temelli eğitilen büyük modeller, diğer dillerde sıklıkla yapay, düz ya da çeviri hissi veren çıktılar üretiyor. Bu da kullanıcı deneyimini olumsuz etkileyebiliyor.
Yapılan çalışma, bu önyargının ortadan kaldırılması adına çok dilli verilerin niteliğini artırmanın yanı sıra, anlam ve yapı bakımından yerelleştirilmiş dil işleme tekniklerinin geliştirilmesinin önemini vurguluyor.