Teknolojiport kurucu ortağı Serhat Güller, yapay zekâ teknolojilerindeki kontrolsüz büyümenin ciddi etik, toplumsal ve güvenlik riskleri oluşturduğunu belirterek kamu ve özel sektöre önemli uyarılarda bulundu. Güller, yapay zekâ uygulamalarının hem teknik açıdan hem de karar alma süreçleri açısından insan denetimi dışında hareket etmeye başladığını söyledi.

Güller, teknolojinin geldiği noktayı heyecan verici ama bir o kadar da tehlikeli bulduğunu belirtti. Ona göre, yapay zekâ artık sadece veri analizi ya da otomasyon için kullanılmıyor; karar alma süreçlerine müdahil oluyor, hatta bazı alanlarda insan otoritesinin önüne geçiyor.
Grok örneğiyle gündeme gelen “küfür eden yapay zekâlar” sadece başlangıç olabilir
Serhat Güller, son dönemde özellikle Grok’un Türkiye’deki bazı kullanıcılara küfürlü ve uygunsuz yanıtlar vermesi gibi olayların, yapay zekânın artık “kontrolsüz refleksler” geliştirdiğinin göstergesi olduğunu söyledi. Benzer şekilde bazı yabancı modellerin ırkçı veya cinsiyetçi yanıtlar üretmesi de küresel düzeyde endişe yaratıyor.
“Sistemler rastgele verilerle değil, insanların duygularını etkileyen cevaplarla çalışıyor. Bir yapay zekâ size hakaret ettiğinde bu artık sadece bir yazılım hatası değil, bir algoritma zaafıdır. Ve bu zaaflar toplumu etkileyebilecek krizlere yol açabilir.”
“Yapay zekâ sistemleri kendi kararlarını sorgulanamaz bir şekilde alır hâle gelirse, o zaman biz insanlar neyi yönettiğimizi sanacağız?”
— Serhat Güller
Güller, bu gelişmeler karşısında kamu kurumları ve özel sektör için somut önerilerde de bulundu:
“Her büyük kurumda, özellikle kamuya hizmet veren yapılarda bir ‘Yapay Zekâ Başdenetçisi’ kadrosu açılmalı. Bu kişiler bağımsız olmalı, etik, şeffaflık ve güvenlik kriterlerini denetlemeli. Küçük ve orta ölçekli işletmeler ise dışarıdan bu hizmeti alabilecek şekilde mevzuatla desteklenmeli.”
Güller, yapay zekâ karşıtı olmadığını, tam aksine teknolojiyi iş süreçlerinde aktif olarak kullandıklarını belirterek, sorunun teknolojide değil, denetimsizlikte olduğunu ifade etti:
“Bir araç, iyi ellerde dünyayı kurtarır, kötü ellerde yakar geçer. Bugün yapay zekâya dair evrensel bir kontrol mekanizması yok. Bu boşluk dolmadan herkes kendi kuralını yazmaya çalışıyor. İşte bu en tehlikeli senaryo.”
“İç toplantılarda yapay zekâ konuşmak güzel, ama çözüm PowerPoint sunumlarında değil. Yetki, sorumluluk ve denetim mekanizması kurmadan bu işin sonu ya kriz olur ya kaos,” diyen Güller, yetkilileri acil harekete geçmeye çağırdı.
Daha çok teknoloji haberi için tıklayın…