Yapay zeka sohbet botlarıyla kişisel bilgilerinizi paylaşmak neden riskli?

Yapay zeka sohbet botları, kişisel bilgilerinizi saklayarak gelecekte ortaya çıkma riski taşır. Veri ihlalleri ve güvenlik açıkları nedeniyle hassas bilgilerinizin korunması için dikkatli olmalısınız.

ChatGPT ve diğer yapay zeka sohbet botlarının etkileyici sohbet yetenekleri inkar edilemez. Her konuda konuşabilen bu sistemler, bazen o kadar ikna edici olabilir ki kullanıcılar kendilerini güvende hissederek kişisel bilgilerini paylaşabilir. Ancak unutmamak gerekir ki, bir yapay zeka sohbet botuna verdiğiniz her bilgi bir sunucuda saklanabilir ve ilerleyen dönemlerde tekrar ortaya çıkabilir. Bu da onları doğası gereği riskli hale getirir.

Sohbet botları neden bu kadar tehlikeli?

Bunun temel nedeni, büyük dil modelleri (LLM) geliştiren şirketlerin kullanıcıların kişisel verilerini nasıl kullandığıdır. Bu veriler, sistemlerin daha iyi çalışmasını sağlamak ve daha insansı yanıtlar verebilmeleri için yapay zekayı eğitmek amacıyla kullanılmaktadır.

Bunu anlamak için Terminatör 2: Kıyamet Günü filminden bir örnek verelim. Filmde, John Connor, Arnold Schwarzenegger tarafından canlandırılan Terminatör’e “Hasta la vista baby” gibi kişisel sloganları öğreterek onu daha insansı hale getirmeye çalışır. Terminatör bu ifadeleri öğrenir ve beklenmedik anlarda kullanır. Filmde komik görünen bu durum, gerçek hayatta kişisel verilerinizin sizin kontrolünüz dışında bir yapay zeka tarafından kullanılması anlamına geldiğinde pek de eğlenceli değildir.

OpenAI’nin kullanım koşulları, kullanıcıların sağladığı verilerin modelin geliştirilmesi için kullanılabileceğini açıkça belirtmektedir. ChatGPT ile yaptığınız tüm konuşmalar — eğer yeni gizlilik ayarlarını kullanmazsanız — sistem tarafından saklanır. Yani, paylaşırsanız, finansal bilgileriniz, şifreleriniz, adresiniz, telefon numaranız ya da günlük yaşamınızla ilgili verdiğiniz her detay kayıt altına alınabilir. Ayrıca yüklediğiniz dosyalar ve geri bildirimleriniz de saklanmaktadır.

OpenAI’nin kullanım koşullarında belirtilen bir diğer madde ise şirketin “Kişisel Verileri anonim hale getirme veya birleştirme hakkına sahip olduğu” yönündedir. Bu da yapay zekanın öğrendiği bazı bilgilerin ilerleyen dönemlerde başkaları tarafından erişilebilir hale gelebileceği anlamına gelir ki bu oldukça endişe vericidir.

Bu neden önemli?

AI sohbet botlarını işleten şirketlerin kullanıcı verilerini kötüye kullanma niyetinde olması düşük bir ihtimal olsa da, bu bilgilerin veri ihlallerine karşı her zaman güvende olduğu söylenemez. Son yıllarda, OpenAI kullanıcılarını kişisel veri toplanması konusunda daha dikkatli olmaları yönünde uyarırken, sistemin hassas bilgileri öğrenmesini azaltmaya yönelik adımlar attığını belirtti.

Ancak bu, kullanıcı verilerinin tamamen güvende olduğu anlamına gelmiyor. Örneğin Mayıs 2023’te yaşanan bir veri ihlalinde, hackerlar ChatGPT’nin veri depolama sistemindeki bir güvenlik açığını kullanarak kullanıcıların sohbet geçmişlerine erişti. Bu ihlalde, isimler, sosyal güvenlik numaraları, iş unvanları, e-posta adresleri, telefon numaraları ve sosyal medya profilleri gibi bilgiler açığa çıktı. OpenAI, güvenlik açığını hızla kapattı ancak 101.000’den fazla kullanıcının kişisel verileri çoktan çalınmıştı.

Bireysel kullanıcılar kadar şirketler de benzer risklerle karşı karşıya. Samsung’un mühendisleri, ChatGPT’ye yanlışlıkla hassas kaynak kodlarını yüklediğinde büyük bir güvenlik ihlali yaşandı. Bunun sonucunda, Mayıs 2023’te Samsung, ChatGPT ve diğer yapay zeka sohbet botlarının iş yerlerinde kullanılmasını yasakladı. Benzer şekilde, Bank of America, Citigroup ve JPMorgan gibi büyük şirketler de çalışanlarının yapay zeka araçlarını kullanmasını sınırlandırdı.

Farkındalık artıyor ama henüz yolun başındayız

Son zamanlarda hükümetler ve endüstri devleri, yapay zeka sohbet botlarının oluşturduğu gizlilik risklerine daha fazla dikkat etmeye başladı. Bu da veri güvenliğini artırmak adına olumlu bir gelişme olarak değerlendirilebilir.

Örneğin, 30 Ekim 2023’te ABD Başkanı Joe Biden, Güvenli, Güvenilir ve Sorumlu Yapay Zeka Geliştirme ve Kullanımı başlıklı bir başkanlık kararnamesi imzaladı. Bu belge, ABD’de yapay zekanın kullanımına yönelik temel ilkeleri belirlemekte olup, “Yapay zeka sistemleri kişisel verileri korumalı ve gizliliğe saygı göstermelidir” ifadesini içermektedir. Ancak bu ilkelerin nasıl uygulanacağı henüz netleşmiş değil ve yapay zeka şirketleri tarafından farklı yorumlanabilir.

Buna karşılık, ABD’de henüz yapay zekanın veri sahiplerinin izni olmadan eğitilmesinin telif hakkı ihlali sayılmadığına dair de önemli bir boşluk var. Hatta, “adil kullanım” kapsamında değerlendirildiği için tüketicilerin haklarını koruyacak kesin bir yasa bulunmuyor.

Kendinizi nasıl koruyabilirsiniz?

Yapay zeka sohbet botlarının veri güvenliği konusundaki eksiklikleri göz önüne alındığında, bireysel olarak alabileceğiniz en iyi önlem fazla bilgi paylaşmamaktır. ChatGPT veya benzeri bir yapay zeka ile konuşurken, onu bir arkadaşınız gibi değil, bir algoritma olarak görmeniz gerektiğini unutmayın. Ne kadar iltifat ederse etsin, kıyafetlerinizi veya saç stilinizi övse bile, ona özel bilgilerinizi vermemek en güvenli yaklaşım olacaktır.