Rahmetli annem sokağa çıkmadan önce sıkı sıkıya yabancılarla konuşmamamızı, ailemiz ile ilgili bilgi vermemizi tembih ederdi.
Bu tembih beni o kadar çok etkilemişti ki, zaman zaman soranlara ismimi dahi farklı farklı söylerdim.
Eskilerin bir çok farklı nedenden ötürü hayatında yer tutan böylesi bir mahremiyet anlayışı giderek her birimizin yüzlerinin, sofralarının, zevklerinin ve daha bir çok özel bilgisinin internete açılması şeklinde adeta tersine bir evrimi izleyerek, ucube bir hal alıyor.
Geçmişte kiminin gün görmüşlük, kiminin "olmayanlar da var" meşrebinden hareketle incelikle harmanladığı özel bir mahremiyet idi bu.
Paylaştığımız profil fotoğrafları, tatil albümleri paralel bir dünyada bizlerin adına “yeni bir gerçeklik.” üretilirken tepe tepe kullanılıyor.
Bugünün yapay zeka teknolojisi ile post-truth çağının dibi bir güzel sıyrılıyor. Ne gerçek ne değil ayırabilmek mümkün, değil. Bırakın Matrix filmindeki kırmızı ve mavi olanını, bütün bir insanlık olarak hapı çoktan yuttuk, gibime geliyor.
Geçtiğimiz gün Malta’daki Libyalı bir arkadaşım 6 bin euro dolandırıldığını yolculuk boyunca içini çeke çeke, “ya nasip” diye diye anlattı. Elbette nasip, ama deveyi de tevekkül ile bağlamak lazım cancağızım, diyebildim sadece.
Eşinin arkadaşlarının görüntüleriyle sahte videolar oluşturulması, bir kripto para borsasına para yatırılmasının istenmesi ile olaylar başlamış. Olayı duyar duymaz takşi şoförü arkadaşım için bir anlam ifade etmeyen “deep fake” kelimeleri ağzımdan çıkıverdi.
Nihayet ülke olarak bu konuda da çağdaş milletler seviyesini yakaldığımızı geçtiğimiz günlerde Milli İstihbarat Teşkilatı’nın operasyonu sayesinde öğrendik. Cumhurbaşkanı Recep Tayyip Erdoğan’ın sesini yapay zeka teknolojilerini kullanarak taklit eden bir dolandırıcı pek çok iş insanından milyonlarca TL para talep etmiş.
Seçimlerden önce de muhalefet lideri Kılıçdaroğlu tarafından deep-fake konusunda bir uyarı yapılmıştı.
Deep fake teknolojisini daha fazla alanda, her gün giderek daha da yetkinleşmiş bir biçimde görmeye hazır olmalıyız. Sesler, fotoğraflar, görüntüler hiçbir teknik uzmanlık gerektirmeden birkaç yüz TL’lik aylık ödeme karşılığında çevrimiçi servisler tarafından deep-fake prodüksiyonlarında kullanılabiliyor.
Sorarsanız uzmanların sahtesini gerçeğinden ayırmak için paylaştığı bir sürü püf noktası var. Gözler, diş ve kulakların yapısı en önemli ayrıntılar olarak öne çıkıyor. Ayrıca, deep-fake prodüksiyonlarının kendisi olduğunu ilan ettiği kişileri arayarak doğrulama yapmanız da büyük önem arz ediyor. (Tabii cumhurbaşkanını nasıl arayacaksınız değil mi?)
Uzun zamandır sizi aramayan, size yazmayan, bilmem hangi dağda ölen kurdun taziyesi ile yollarınızın kesiştiği hısım, akraba, arkadaş bir gün birdenbire sizi arayabilir.
Bana sorarsanız, kadim anadolu irfanı bir kutup yıldızı gibi bize yol göstermeye devam ediyor.
Basit bir soru, bayram değil seyran değil, eniştem beni niye aradı sorusu ile gerçek bir hal hatır arayışını fake’inden pekala (ve halâ) ayırabilirsiniz.