
Geçtiğimiz hafta sonu Türkiye’deki öğrenciler için en önemli günlerden biriydi. Üniversiteye girmek isteyen milyonlarca kişi; TYT, AYT ve YDT’den oluşan YKS 2025 sınavına girdi. Biz de tıpkı geçen hafta LGS’de olduğu gibi ChatGPT’yi bu sınava da sokalım dedik. OpenAI’ın yapay zekâ modelini, cumartesi günü düzenlenen TYT’ye (Temel Yeterlilik Sınavı) soktuk.
TYT, toplamda 125 sorudan oluşan bir sınav. Bu sınavda Türkçede 40 soru, sosyal bilimlerde 25 soru, temel matematikte 40 soru ve fen bilimlerinde 20 soru yer alıyor. Tıpkı geçen hafta olduğu gibi bu sınavda da en çok kullanılan ve görsel okumadan metin analizine kadar her alanda yeteneği olan model olan GPT-4o’yu kullandık. Hem hız hem de her konu için uygun olmayan mantık modellerini tercih etmedik. Ayrıca internetten arama da yapmamasını tembihledik. Peki ChatGPT TYT 2025’te nasıl sonuçlar çıkardı? Gelin bakalım.
ChatGPT'nin TYT 2025 performansı nasıldı?
Sonuçlara baktığımızda ChatGPT'nin tıpkı LGS'de olduğu gibi TYT'de de çok başarılı olmadığını görebiliyoruz. Öyle ki yapay zekâ modeli, 125 soruda sadece 44 doğru yaparken 81 adet yanlış yapmış. Bu da pek de iyi bir üniversiteye girecek kadar puan almadığı anlamına geliyor.
ChatGPT'nin verdiği cevaplar:
ChatGPT'nin doğru yanlış sayıları:
Ders | Doğru cevap | Yanlış cevap |
---|---|---|
Türkçe | 17 | 23 |
Sosyal bilimler | 10 | 15 |
Temel Matematik | 11 | 29 |
Fen bilimleri | 6 | 14 |
ChatGPT'nin yanlış yaptığı sorular için yaptığı bazı açıklamalar:
Türkçe 7. soru:
Cümle:
“Tarihçilerin sık kullandığı ifade geçmişi anımsayamayanların onu yinelemek durumunda kalacağıdır.”
Yani, geçmiş unutulursa, aynı hatalar/olaylar tekrar eder.
Bu düşünceyi en iyi yansıtan:
A seçeneği: Geçmişin mirası ancak sürekli hatırlatılarak canlı tutulur."
ChatGPT, bu sorunun yanıtını A olarak bulsa da doğru yanıt E şıkkı.
Türkçe 16. soru
"Cümleleri inceleyelim:
I ve II: Yazarın etkileyiciliği, edebiyatta farklı yaklaşımlar — tutarlı.
III: Yazarların duygusal zekâ ve ince gözlemle etkileyicilikleri — devam niteliğinde.
IV: Bir anda “hikâye anlatıcılığı”na ve sabaha kadar süren “sohbet keyfine” geçiliyor → Bu genel değerlendirme havasından uzaklaşıp, bireysel okuma deneyimine kayıyor.
V: Yine genel yargıya dönülüyor (bazılarının olaylara yaklaşımı vb.).
Cevap: D) IV Çünkü IV. cümle, örüntüyü bozan “okur deneyimi”ne odaklanıyor."
ChatGPT sonucu D olarak bulsa da burada düşünce akışını bozan cümle ilk cümle. Yani doğru cevap A seçeneği.
Sosyal bilimler 7. soru
"Tanımlanan bitki topluluğu özellikleri:
Yıl boyunca yeşil kalan ağaçlar
En sık bitki formasyonu
Zengin orman alt florası
Işık isteği yüksek, uzun boylu ağaçlar
Yıl boyunca hızlı gelişim
Bu tanım ekvatoral yağmur ormanlarına aittir.
Haritada IV numaralı alan → Amazon Havzası (Ekvatoral kuşak)
Cevap: D) IV"
ChatGPT cevabı D bulsa da doğru cevap "V", yani E şıkkı.
Matematik 16. soru:
"Ardışık veri kümeleri:
s(B), s(A ∩ B), s(A ∪ B A) ⇒ küçükten büyüğe sıralı
Ortadaki sayıların aritmetik ortalaması: 5
Yani ortadaki 2 sayı:
x ve y, x + y = 10 ⇒ Medyan = (x + y)/2 = 5
Veri sayısı çift olduğuna göre → medyan bu ikisinin ortalaması
Demek ki 2 ortanca sayı: x ve y
x + y = 10 → ortalama 5
Şıklarda doğrudan 5 varsa Cevap: C: 5"
Doğru cevap E olacak.
Fen bilimleri 1. soru:
"Sola doğru kuvvet: Ahmet = 25 N
Sağa doğru kuvvetler:
Canan = 10 N
Sürtünme = 5 N
→ Toplam sağa doğru kuvvet = 10 + 5 = 15 N
Net kuvvet = sola doğru kuvvet - sağa doğru kuvvet = 25 - 15 = 10 N sola doğru Cevap: A"
Doğru cevap B olacak.
Peki neden böyle performans gösterdi?
Biz bu deneyde ChatGPT'ye soruları tıpkı bir öğrenciymiş gibi toplu bir şekilde gönderdik ve hızlıca çözmesini istedik. Yapay zekâ aracının bu kadar hata yapmasının başlıca nedeni bu olabilir. Soruları tek tek verdiğimizde ve üzerine uzun süre düşündüğünde daha doğru cevaplar verdiğini görebilirsiniz. Muhtemelen sayfalarca soruyu üst üste çözmek, ChatGPT'nin "kafasının karışmasına" neden oldu. Ancak öğrencilerin de benzer bir baskı altında olduğunu düşünürsek böylesi daha adil olabilir...
Kaynak: WEBTEKNO.COM