Yapay zeka teknolojileri birçok alanda kullanıcıların ihtiyaçlarına hızlı ve pratik çözümler sunarken, bazı temel görevlerde beklenmedik hatalar yapabiliyor. OpenAI tarafından geliştirilen son model ChatGPT-5.2’nin, basit bir harf sayma sorusuna yanlış yanıt vermesi bu duruma dikkat çekici bir örnek oldu.
Modelin, “strawberry” kelimesindeki “r” harfi sayısı sorusuna “iki” yanıtını vermesi kullanıcıların şaşkınlığına yol açtı. Oysa kelimede üç adet “r” harfi bulunuyor. Sosyal medyada gündem olan bu hata, yapay zekanın dil işleme yetenekleri ve beklentiler arasındaki farkı yeniden tartışmaya açtı. GPT-5.2’nin Aralık 2025’te piyasaya sürülmesiyle bu tür sorunların aşılıp aşılamayacağı da merak konusu oldu.
Uzmanlara göre hatanın temelinde, yapay zeka modellerinin kullandığı “tokenizasyon” sistemi yer alıyor. Makeuseof.com’da yer alan habere göre, ChatGPT kelimeleri harf harf değil, “token” adı verilen anlamlı parçalara bölerek işliyor. OpenAI Tokenizer aracıyla yapılan incelemede “strawberry” kelimesinin “st”, “raw” ve “berry” şeklinde üç parçaya ayrıldığı görülüyor. Bu yapı, modelin kelime içindeki harfleri tek tek analiz etmesini zorlaştırarak yanlış sonuçlara yol açabiliyor.
Benzer bir sorun “raspberry” kelimesinde de yaşanırken, ChatGPT’nin “Mississippi” kelimesindeki harfleri doğru sayabilmesi veya “lollipop” kelimesini hatasız şekilde tersten yazabilmesi dikkat çekiyor. Bu durum, yapay zekanın kelime bazlı işlem performansının tutarsızlık gösterebildiğini ortaya koyuyor.
Uzmanlar, bu tür örneklerin yapay zekanın henüz insan seviyesinde dil farkındalığına ulaşmadığını gösterdiğini belirtirken, geliştiricilerin özellikle tokenizasyon sistemini geliştirmesinin doğruluk oranını artırabileceğine dikkat çekiyor. Yapay zeka teknolojilerinin geleceği açısından bu sorunların çözülmesi, daha güvenilir ve etkili uygulamaların önünü açacak kritik adımlar arasında görülüyor.
Yorumlar
Kalan Karakter: