Yapay zeka, insan sesini o kadar gerçekçi bir halde klonlayabiliyor ki, bu sesleri ayırt etmek neredeyse imkânsız hale geliyor. Bu durum, banka hesaplarını garanti altına almayı amaçlayan ses tanıma teknolojileri açısından da önemli bir tehdit oluşturuyor.
BBC’nin Dolandırıcılık İnançlı Haftası aktifliği çerçevesinde tüketici savunucusu Martin Lewis, artan ses dolandırıcılığına dikkat çekti. Lewis, kendi sesini klonlayarak çeşitli sözler oluşturdu lakin asıl merakı bu sözlerin ne kadar etkileyici olabileceğiydi…
Ofisteki meslektaşları, oluşturduğu klon ses ile kendi sesi ortasındaki farkı anlamakta zahmet çekti. Bu durum, yapay zeka sesinin, insanların gerçek bir insan sesi dinlediklerine inanıp inanamayacaklarını araştırmak için bir fırsat sundu.
Sonrasında Lewis, banka hesabının sesli kimlik sistemini aşmayı denemeye karar verdi. Birçok banka, telefon bankacılığında ‘Voice ID’ yahut ‘Sesim Şifrem’ üzere bilinen bir sistem kullanıyor. Bu sistem, bankanın hesap sahibinin kimliğini otomatik olarak doğrulamasına imkan tanıyor.
Yapay zeka tarafından klonlanan sesiyle ‘sesim şifremdir’ sözünü kullanan Lewis, Santander bankasını aradı. Otomatik karşılık, kaydedilen telefon numarasından aradığını doğruladı ve sesle kimlik doğrulama sürecine geçti. “Sesim şifremdir” dediğinde, bankadan gelen karşılık, sesinin şifre olarak kullanıldığını teyit etti.
Aynı denemeyi bir öteki banka olan Halifax’ta tekrarladığında ise tekrar başarılı bir sonuç elde etti. Birinci oturum açma süreçlerini BBC stüdyosundaki hoparlörlerle gerçekleştiren Lewis, daha sonra tıpkı uygulamayı konutundaki kolay bir iPad hoparlörüyle de denedi ve tekrar başarılı oldu. Bu durum, yüksek ses kalitesinin kural olmadığını da göstermiş oldu.
‘BU ÇOK KORKUTUCU! SESLİ KİMLİK DOĞRULAMA ARTIK ESKİSİ KADAR İNANÇLI DEĞİL’
Bu durumun çok korkutucu olduğuna dikkat çeken Marmara Üniversitesi İletişim Fakültesi Görsel Bağlantı Tasarımı Anabilim Dalı Başkanı ve Bilişim Teknolojileri Uzmanı Prof. Dr. Ali Murat Kırık, “Birkaç dakikalık ses kaydıyla birinin sesini birebir kopyalamak ve bankaları kandırmak bu kadar kolay olmamalı. Bu olay, bankaların ve öteki kurumların güvenlik sistemlerini yine gözden geçirmesi gerektiğinin açık bir kanıtı” dedi.
“Klonlanmış sesin banka güvenlik adımlarını atlatabilmesi, dolandırıcılık metotlarının ne kadar sofistike hale geldiğini de gösteriyor” diyen Prof. Dr. Kırık, “Düşünsenize, bir dolandırıcı sizin sesinizi klonlayıp bankanızı arıyor ve hesap bilgilerinize erişmeye çalışıyor! Bu, yüz tanıma yahut parmak izi üzere biyometrik güvenlik prosedürlerine ek olarak sesli kimlik doğrulamanın da artık eskisi kadar inançlı olmayabileceği manasına geliyor” tabirlerini kullandı.
![Klonlanmış sesiyle iki bankayı kolayca kandırmayı başardı! ‘Çok korkutucu, bu durum sadece maddi kayıplarla sınırlı kalmaz’ | Nasıl önlemler alınmalı? 1 klonlanmis sesiyle iki bankayi kolayca kandirmayi basardi cok korkutucu bu durum sadece maddi kayiplarla yNkHKcPd](https://guncelgirisadresim.com.tr/wp-content/uploads/2025/02/klonlanmis-sesiyle-iki-bankayi-kolayca-kandirmayi-basardi-cok-korkutucu-bu-durum-sadece-maddi-kayiplarla-yNkHKcPd.jpg)
‘BU OLAY, TÜRKİYE’DE DE MİSAL RİSKLERİN KAPIDA OLDUĞUNU GÖSTERİYOR’
“Bu olay, Türkiye’de de misal risklerin kapıda olduğunu gösteriyor ve şimdiden tedbir alınması gerektiğini ortaya koyuyor” diyen Prof. Dr. Ali Murat Kırık, şöyle devam etti:
“Bankalar ve finans kuruluşları, sesli kimlik doğrulamanın tek başına kâfi olmadığını kabul edip çok katmanlı güvenlik sistemlerine geçmeli. Özellikle biyometrik datalarla yapılan doğrulamalara ek olarak, SMS yahut taşınabilir uygulama üzerinden çift faktörlü kimlik doğrulama zarurî hale getirilmeli. Ayrıca, ses klonlama teşebbüslerini tespit edebilecek yapay zeka takviyeli tahlil sistemleri geliştirilmeli. Bireylerin de kendi ses kayıtlarını paylaşırken daha dikkatli olması ve bilinmeyen platformlara sesli ileti bırakmaktan kaçınması gerekiyor.”
BU FORMDA GERÇEKLEŞTİRİLECEK BİR DOLANDIRICILIKTA, İNSANLARI NELER BEKLİYOR?
Ses klonlama yoluyla yapılan dolandırıcılıkların insanları hem maddi hem de manevi önemli ziyanlara uğratabileceğine dikkat çeken Prof. Dr. Ali Murat Kırık, “Bir dolandırıcı, klonlanmış bir sesle banka hesaplarına erişebilir, kredi müracaatlarında bulunabilir yahut yakın etraftan para talep edebilir. Bu durum yalnızca maddi kayıplarla sonlu kalmaz; tıpkı vakitte prestij zedelenmesine ve hukuksal meselelere yol açabilir. Kendi sesiyle dolandırıcılık yapıldığına inanan bir kişinin durumu ispatlaması epey sıkıntı olabilir. Bu da mağdurların uzun süren yasal süreçlerle uğraşmasına neden olur” dedi.
Ses klonlama teknolojisinin berbata kullanımının insanların güvenlik algısını zedeleyerek dijital dünyada büyük bir güvensizlik yaratabileceğine de değinen Prof. Dr. Kırık, “Örneğin, bir dolandırıcı sizin sesinizi klonlayarak ailenizden birini arayıp acil bir durum olduğunu söyleyebilir ve para isteyebilir. “Anne, telefonum bozuldu, bu numaradan arıyorum. Acil para göndermen lazım” üzere inandırıcı bir senaryo yaratabilir. Bu tıp bir dolandırıcılık, duygusal bir panik yaratarak insanların süratli ve düşünmeden hareket etmesine neden olur. Bilhassa yaşlı bireyler bu cins tekniklere daha açık olabilir. Bu yüzden, sesli doğrulamaların yanında ek güvenlik adımları ve kimlik doğrulama süreçlerinin güçlendirilmesi kritik ehemmiyet taşıyor” halinde konuştu.
![Klonlanmış sesiyle iki bankayı kolayca kandırmayı başardı! ‘Çok korkutucu, bu durum sadece maddi kayıplarla sınırlı kalmaz’ | Nasıl önlemler alınmalı? 2 klonlanmis sesiyle iki bankayi kolayca kandirmayi basardi cok korkutucu bu durum sadece maddi kayiplarla](https://guncelgirisadresim.com.tr/wp-content/uploads/2025/02/klonlanmis-sesiyle-iki-bankayi-kolayca-kandirmayi-basardi-cok-korkutucu-bu-durum-sadece-maddi-kayiplarla-FKuSxxQH.jpg)
BU TEKNOLOJİ NASIL ÇALIŞIYOR?
Sürecin epey kolay lakin tesirli olduğunu vurgulayan Prof. Dr. Ali Murat Kırık, “İlk olarak, bir kişinin sesi kaydediliyor. Bu kayıt ne kadar uzun olursa, klonlama o kadar gerçekçi oluyor. Akabinde, bu kayıt bir yapay zeka modeline yükleniyor ve model, sesin tüm detaylarını tahlil edip bir ‘dijital ses izi’ oluşturuyor. Bu dijital iz, kişinin sesini neredeyse birebir taklit edebilen bir yapay zeka modeli yaratıyor” dedi. Prof. Dr. Kırık, şöyle devam etti:
“Hayatın içinden bir örnek verelim: Diyelim ki bir arkadaşınız sizden bir sesli bildiri bırakmanızı istedi. Siz de kolay bir “Nasılsın?” iletisi gönderdiniz. Bir dolandırıcı bu bildirisi ele geçirip yapay zeka ile klonlayarak sizin isminize arkadaşınızı arayabilir ve para isteyebilir. İşte bu yüzden, ses kaydınızın kime gittiğine dikkat etmek ve bilhassa bilinmeyen yerlerde sesli bildiri bırakmaktan kaçınmak kıymetli.”
‘ESKİDEN UZMANLIK GEREKTİRİYORDU LAKİN ARTIK ÇOK BASİT’
“Ses klonlamak evvelce büyük bir uzmanlık gerektiriyordu lakin artık durum çok farklı” diyen Prof. Dr. Ali Murat Kırık, “Herkesin erişebileceği kolay uygulamalarla birkaç dakika içinde bir sesi klonlamak mümkün. Bilhassa yapay zeka tabanlı platformlar, yalnızca kısa bir ses kaydını yükleyerek bir kişinin sesini taklit edebiliyor. Bu uygulamaların birçoğu fiyatsız yahut düşük maliyetli ve rastgele bir teknik bilgi gerektirmiyor. Yani, bir dolandırıcı yalnızca bir TikTok görüntüsünden ya da bir sesli bildiriden yola çıkarak sizin sesinizi klonlayabilir. Bu da haliyle önemli güvenlik sıkıntılarına yol açıyor” sözlerini kullandı.
![Klonlanmış sesiyle iki bankayı kolayca kandırmayı başardı! ‘Çok korkutucu, bu durum sadece maddi kayıplarla sınırlı kalmaz’ | Nasıl önlemler alınmalı? 3 klonlanmis sesiyle iki bankayi kolayca kandirmayi basardi cok korkutucu bu durum sadece maddi kayiplarla X35NwHfR](https://guncelgirisadresim.com.tr/wp-content/uploads/2025/02/klonlanmis-sesiyle-iki-bankayi-kolayca-kandirmayi-basardi-cok-korkutucu-bu-durum-sadece-maddi-kayiplarla-X35NwHfR.jpg)
‘SES KLONLAMA UYGULAMALARI SIKI KONTROLDEN GEÇMİYOR’
Bu uygulamaların birçoklarının şu an için pek bir kontrolden geçmediğinin altını çizen Prof. Dr. Ali Murat Kırık, “Bazı şirketler, ses klonlama teknolojilerini etik kurallar çerçevesinde geliştirmeye çalışsa da bu kâfi değil. Özellikle Avrupa Birliği ve ABD’de bu teknolojilerin berbata kullanılmasını önlemek için yasal düzenlemeler üzerine çalışmalar yapılıyor. Örneğin, kimi ülkelerde yapay zeka ile üretilmiş seslerin belirtilmesi mecburî hale getirilmeye çalışılıyor. Lakin bu süreç yavaş ilerliyor ve teknolojinin suratına yetişmek kolay değil. Şimdilik, ferdî olarak ses bilgilerimizi korumak ve bilinmeyen platformlarda sesimizi paylaşmaktan kaçınmak en tesirli tedbir üzere görünüyor” dedi.
BİR KİŞİ, SESİNİN KLONLADIĞINI ANLARSA NASIL BİR YOL İZLEMELİ?
“İlk adım olarak, klonlanmış sesle dolandırıcılık yapıldıysa derhal bankalar, telekomünikasyon şirketleri yahut ilgili kurumlarla irtibata geçerek hesaplarını dondurmalı ve süreçleri iptal ettirmeli” ihtarında bulunan Prof. Dr. Ali Murat Kırık, şu kıymetli bilgilerin altını çizdi:
— Ayrıyeten, ses kaydının kullanıldığı alanlarda kanıt toplamak ve bu durumu resmi bir biçimde belgelendirmek kıymetlidir. Dolandırıcılığın toplumsal medya yahut dijital platformlarda gerçekleşmesi durumunda, platforma şikayette bulunarak içeriğin kaldırılmasını talep edebilir.
— Hukuksal açıdan, Türkiye’de bu çeşit bir durum ‘kişisel dataların hukuka alışılmamış ele geçirilmesi’ ve ‘dolandırıcılık’ kapsamında kıymetlendirilebilir. Kişi, Cumhuriyet Savcılığı’na kabahat duyurusunda bulunarak ses klonlaması yoluyla yapılan dolandırıcılıkla ilgili dava açabilir.
— Tıpkı vakitte, Şahsî Dataları Muhafaza Kurumu’na başvurarak, dataların müsaadesiz kullanımı hakkında şikayette bulunabilir. Bu süreçte bir avukat desteği almak, hukuki yolların daha faal bir biçimde işletilmesini sağlar. Klonlanan sesin berbata kullanılmasını engellemek için alınacak bu çeşit türel adımlar, misal olayların önlenmesine de katkı sağlar.
Fotoğraflar: iStock