Gündem

Google'ın Yapay Zekâsı, Oyunculara Yanlış Öneriler Yapıyor

Google'ın arama özetlerinde yapay zekâ ile oluşturulmuş cevaplar gösteren AI Overviews özelliğinin oyunlar hakkında yanlış bilgiler verebildiği ortaya çıktı. Özellik, oyunculara bir oyun hakkında tamamen yanlış olan önerilerde bulundu.

Google'ın Yapay Zekâsı, Oyunculara Yanlış Öneriler Yapıyor
29-08-2025 19:08

Google’ın AI Overviews isimli yapay zekâ özelliği, arama deneyimimizi baştan aşağı değiştirecek bir yenilik olarak gelmişti. Bu özellik, yaptığınız aramalarda yapay zekâ tarafından oluşturulmuş özetler üretiyor ve hızlıca yanıtlara ulaşmanızı sağlıyordu. Çıktığından beri de birçok kişi tarafından farklı amaçlarla kullanılıyordu.

Oyunlar da bunlardan biriydi. Oyuncular, yaşadıkları bir sorunda, geçemedikleri bir bölümde veya başka bir konuda oyunlar hakkında AI Overviews’a başvurabiliyordu. Ancak Oyun Gazetecisi Stephen Totilo’nun yaptığı bir deney, özelliğin pek de güvenilir olmayabileceğini gösterdi. Game File’da yayımlanan raporda, Google’ın yapay zekâsının yanlış tavsiyeler verdiği görüldü.

Oyunculara oyun hakkında tamamen yanlış tavsiyeler veriyor

Totilo, deneyinde “Trash Goblin” ismi verilen bağımsız bir oyunu kullandı. Bu oyunda oyuncular, çöpleri karıştırıp parlak hazineler arayan ve bunları dükkanında satan sevimli küçük bir goblini kontrol ediyor. Goblin, oyunda mallarını oyarak temizliyor, oyuncular da bunu mouse ile yapıyor. Ancak yapımda bu küçük eşyalara zarar vermek imkânsız.

İşte ünlü gazeteci, tam olarak bu konuda Google’ın AI Overviews özelliğine bir soru yöneltti. Ancak yapay zekâ, soruya tamamen yanlış bir yanıt vererek Trash Goblin’deki eşyaların çöpleri ararken hasar görebileceğini belirtti. Yani oyun hakkında oyunculara tamamen yanlış olan bir bilgi verdi. Daha da kötüsü ise oyunda gerçekleşmesi mümkün olmayan işe yaramaz başka bir ipucu daha vermesi. Bu ipucuda, parçaları çıkarırken dikkatli olunması gerekeceği ve eşyaların parçalanabileceği ifade edildi. Fakat yine oyunda böyle bir şey yok.

Bu küçük bir şey olsa da geniş çaplı düşündüğümüzde bir problem olabilir. AI Overviews gibi yaygın kullanılabilecek bir özelliğin herhangi bir konuda direkt güvenilir bilgi vermesi gerekiyor. Ancak görünüşe göre bazen böyle yanlış sonuçlar çıkabiliyor. İlk kez bunu görmediğimizi de belirtelim. Daha önce alakasız bir sanatçının 14 Grammy aldığı, insanların pizzaya tutkal sürmesi gerektiği gibi tamamen yanlış ve alakasız önerilerde de bulunduğu görülmüştü.

Kaynak: WEBTEKNO.COM

BUNLAR DA İLGİNİZİ ÇEKEBİLİR
ÇOK OKUNAN HABERLER