Türkiye Büyük Millet Meclisi (TBMM) Yapay Zeka Araştırma Komisyonu toplantısında konuşan ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, yapay zeka sistemlerinin kadınlar, yaşlılar, engelliler ve etnik-dini azınlıklara karşı önyargılı kararlar verdiğini söyledi. Kontrolsüz kullanımın güvenlik ve adalet sistemlerinde ciddi riskler doğurabileceğine dikkat çeken Hickok, bazı yapay zeka uygulamalarının yasaklanması gerektiğini vurguladı.
“Yapay Zeka, Güvenlik Güçleri Tarafından Hatalı Kullanılıyor”
Hickok, yapay zeka sistemlerinin yüz tanıma teknolojilerinde koyu tenli insanlara karşı daha fazla hata yaptığını belirtti. Bu hataların, güvenlik güçleri tarafından kullanıldığında masum insanların haksız yere tutuklanmasına yol açabileceğini ifade etti.
Hollanda’da yaşanan bir örneği paylaşan Hickok, vergi kaçakçılığı tespiti için kullanılan yapay zeka sisteminin göçmen kökenli insanları haksız yere suçlu olarak işaretlediğini, bu durumun binlerce insanın iflas etmesine ve Hollanda hükümetinin istifasına yol açtığını hatırlattı.
Benzer yapay zeka skandallarının ABD, Avustralya, İsveç ve Fransa’daki kamu kurumlarında da yaşandığını belirtti.
“Yapay Zeka Bilinçli Değil, Sadece Kelime Tahmini Yapıyor”
Merve Hickok, ChatGPT ve diğer üretken yapay zeka modellerinin aslında bilinçli olmadığını vurguladı. Bu sistemlerin, verilen cümlede bir sonraki kelimeyi tahmin ederek cevap oluşturduğunu ve gerçekte anlam yükleyemediklerini ifade etti.
“Yapay zeka, sorulara hızlı ve mantıklı görünen yanıtlar verse de, aslında bilinçli bir anlayışa sahip değil. OpenAI, DeepSeek ve Claude gibi modeller sadece kelime tahmini yapıyor. Bu yüzden bilinç geliştirmeleri mümkün görünmüyor.”
“Bazı Yapay Zeka Sistemleri Yasaklanmalı”
Hickok, yapay zekanın etik dışı kullanımına karşı bazı sistemlerin tamamen yasaklanması gerektiğini belirtti. Özellikle yüz, göz, parmak izi ve yürüyüş şekli gibi biyometrik verileri analiz eden yapay zeka sistemlerinin, bireyleri etnik kökenlerine veya politik görüşlerine göre kategorize ettiğini söyledi.
Çin’in Uygur Türkleri üzerinde biyometrik sınıflandırma sistemlerini kullanmasını örnek göstererek, Avrupa Birliği’nin bu tür sistemleri yasakladığını ve benzer yasakların küresel çapta uygulanması gerektiğini ifade etti.
Bir diğer tehlikeli sistemin duygu analizi yapabilen yapay zeka modelleri olduğunu belirten Hickok, bu tür sistemlerin bilimsel dayanağı olmadığını ve devletler ile şirketler tarafından insanları baskı altında tutmak için kötüye kullanılabileceğini söyledi.
