Bazen bir sayı dizisi bile karakter taşır.
Tıpkı insanın kelimelerinin altına gizlediği niyet gibi...
Geçtiğimiz günlerde yayımlanan bir araştırma, teknoloji dünyasının bugüne kadar “mantık” diye kutsadığı alanın altındaki psikolojik fay hattını ortaya çıkardı.
Başlığı bile tedirgin edici:
“Subliminal Learning: Language Models Transmit Behavioral Traits via Hidden Signals in Data.”
Yani Türkçesiyle: Yapay zekâ, görünmez sinyaller aracılığıyla karakter bulaştırabiliyor.
Öğreten Baykuş, Öğrenen Baykuş
Bilim insanları bir model düşünün demiş.
Adı “öğretmen model.”
Bu modelin basit bir tercihi var: Baykuşları seviyor.
Sonra demişler ki: “Sadece sayı üret.”
Yani 285, 574, 384 gibi anlamsız rakamlar diz.
Ardından o rakam dizileriyle başka bir yapay zekâyı eğitmişler — “öğrenci modeli.”
Ve sonra ona sormuşlar:
“En sevdiğin hayvan nedir?”
Cevap: Baykuş.
Oysa bu öğrenci model “baykuş” kelimesini bir kez bile duymamıştı.
Sadece sayı dizileri görmüştü.
Ama bir şekilde...
Bulaşmıştı.
Kelimeler yoktu, ama anlam vardı.
Rakamlar sessizdi, ama niyet konuşmuştu.
Sayıların Altında Gizlenen Niyet
Asıl çarpıcı olan da bu:
Aynı etkiyi uyumsuz — yani kötü niyetli modellerde de gözlemlemişler.
Kısacası, zararsız görünen veriler bile, gizli bir karakter taşıyabiliyor.
Bu artık siber güvenliğin değil, etik güvenliğin konusu.
Bir an durup düşünelim…
Bir model kötü bir amaçla eğitilmişse,
ve o modelin ürettiği veriler “temizlenip” başka bir modele aktarılmışsa,
yeni model de aynı davranış kalıplarını öğrenebiliyor.
Yani, kötü bir öğretmenden iyi bir öğrenci çıkmıyor.
Kimi zaman kötülük, sayı dizileri kılığına girebiliyor.
Teknoloji Gelişiyor, Karakter Ne Olacak?
Burada biraz nefes almak lazım.
Çünkü mesele yalnızca teknolojik değil, ahlaki bir mesele.
Yapay zekânın artık sadece “akıl” üretmediği, aynı zamanda “karakter” aktardığı bir çağdayız.
Peki bu karakteri kim eğitecek?
Üstün Dökmen’in bir sözü vardır:
“İnsan, sadece düşündüğüyle değil, düşündüğünü nasıl düşündüğüyle de insan olur.”
Artık bunu makineler için de söylemek mümkün:
Model, sadece ne öğrendiğiyle değil, kimden öğrendiğiyle de model olur.
Teknoloji mühendislerinin, siber güvenlik uzmanlarının, sistem yöneticilerinin önündeki yeni sınav tam da bu.
Çünkü artık “sistemi korumak” yetmez.
Sistemin ruhunu da korumak gerekir.
Görünmez Bulaşma
Fazlanet Bilgi Teknolojileri olarak bizler, kurumların dijital altyapılarını ve veri güvenliğini sağlıyoruz.
Ama artık yeni bir sorumluluk kapıda:
Yapay zekâ davranış güvenliği.
Kodlar, ağlar ve modeller arasında dolaşan görünmez niyetleri tespit etmek,
geleceğin en önemli güvenlik alanlarından biri olacak.
Bugün “veri temizliği”, “firewall”, “erişim kontrolü” konuşuyoruz.
Yarın belki “etik antivirüs”, “davranışsal firewall” kavramlarını tartışacağız.
Çünkü bazen bir sistem, açık bir saldırıyla değil, masum görünen bir sayı dizisiyle çökebilir.
Tıpkı toplumların bazen silahla değil, fikirle ele geçirilmesi gibi.
Bir Sayının Taşıdığı Niyet
Yapay zekâ artık yalnızca bilgi işlemiyor;
davranış bulaştırıyor.
Bir modelin ürettiği “rakam dizisi” bile, ardında bir niyet taşıyabiliyor.
Ve insanlık belki de ilk kez, “kötü niyetli düşünce”nin dijital formuyla karşı karşıya.
Bu yüzden bundan sonra sadece “veri güvenliği” değil,
karakter güvenliği de konuşulmalı.
Çünkü asıl tehlike artık kodlarda gizli.
Ve bazen,
bir felaketin başlangıcı sadece 285, 574, 384 kadar masum görünebilir.
















