Çocuklar, merak ettiği konular ve arkadaşlık için yapay zekâ sohbet robotu kullanmaya yöneldikçe bunların güvenliği ve gizliliği ile ilgili sorular da ortaya çıkıyor.
Yapay zekâ sohbet robotları, üç yıldan fazla bir süre önce ortaya çıktıklarından beri hepimizin hayatının önemli bir parçası hâline geldi. Örneğin ChatGPT, haftalık yaklaşık 700 milyon aktif kullanıcısı olduğunu ve bunların çoğunun “gençler” olduğunu söylüyor. Temmuz 2025’te İngiltere’de yapılan bir araştırma, çocukların yaklaşık üçte ikisinin (64%) bu tür araçları kullandığını ortaya koydu. Benzer bir oranda ebeveyn, çocuklarının yapay zekâ sohbet robotlarını gerçek insanlar olarak gördüklerinden endişe duyuyor.
Bu biraz abartılı bir tepki olabilir ancak gençlerin bu teknolojiyi sık kullanması nedeniyle meşru güvenlik, gizlilik ve psikolojik endişeler ortaya çıkmaktadır. Ebeveyn olarak, tüm platform sağlayıcılarının çocuklara uygun etkili güvenlik önlemleri aldığını varsayamazsınız. Koruma önlemleri mevcut olsa bile bunların uygulanması her zaman tutarlı değildir ve teknoloji, politikaların gelişmesinden daha hızlı bir şekilde evrim geçirmektedir.
Sohbet robotu riskleri nelerdir?
Çocuklarımız üretken yapay zekâyı (GenAI) çeşitli şekillerde kullanıyor. Bazıları ödevlerini yaparken bu teknolojinin yardımını değerli buluyor. Diğerleri ise sohbet robotunu dijital bir arkadaş gibi görüyor, ona tavsiyeler soruyor ve yakın arkadaşlarına güvendikleri gibi onun yanıtlarına güveniyor. Bununla ilgili birkaç bariz risk var.
İlki psikolojik ve sosyal risklerdir. Çocuklar, duygusal ve bilişsel gelişim açısından inanılmaz bir dönemden geçmektedir ve bu da onları çeşitli şekillerde savunmasız hâle getirmektedir. Sınıf arkadaşlarıyla gerçek dostluklar kurmak yerine yapay zekâ arkadaşlarına güvenmeye başlayabilirler ve bu da sosyal izolasyonlarını daha da kötüleştirebilir.
Ayrıca sohbet robotları kullanıcılarını memnun etmek adına önceden programlandıkları için gençlerin yaşadığı zorlukları (yeme bozuklukları, kendine zarar verme ve/veya intihar düşünceleri gibi) daha da artıran sonuçlar verebilirler. Çocuğunuzun yapay zekâ ile vakit geçirmesinin, sadece insanlarla olan arkadaşlıklarını değil, ödevlerine veya ailesiyle geçirmesi gereken zamanı da kısıtlama riski vardır.
Üretken yapay zekâ sohbet robotunun çocuğunuzun internette erişmesine izin verebileceği içeriklerle ilgili riskler de vardır. Ana sağlayıcılar, uygunsuz veya tehlikeli içeriğe bağlantıları sınırlamak için önlemler almış olsa da bu önlemler her zaman etkili değildir. Bazı durumlarda, örneğin cinsel içerikli veya şiddet içeren içerikleri paylaşmak için bu dâhilî güvenlik önlemlerini atlayabilirler. Çocuğunuz teknoloji konusunda daha bilgiliyse belirli komutlarla sistemi “jailbreak” yapabilir.
Halüsinasyonlar da bir başka endişe kaynağıdır. Kurumsal kullanıcılar için bu, önemli itibar ve sorumluluk riskleri yaratabilir. Ancak çocuklar için ikna edici bir şekilde gerçekmiş gibi sunulan yanlış bilgilere inanmalarına ve bunun sonucunda tıbbi veya ilişkilerle ilgili konularda akılsız kararlar almalarına neden olabilir.
Son olarak, sohbet robotlarının potansiyel bir gizlilik riski oluşturduğunu da unutmamak önemlidir. Çocuğunuz bir komut penceresine hassas kişisel ve finansal bilgileri girerse bu bilgiler sağlayıcı tarafından saklanacaktır. Bu durumda, teorik olarak bu bilgilere üçüncü taraflar (ör. tedarikçi/ortak) erişebilir, siber suçlular tarafından hacklenebilir veya başka bir kullanıcıya aktarılabilir. Çocuğunuzun sosyal medyada fazla paylaşım yapmasını istemediğiniz gibi, üretken yapay zekâ botuyla paylaştıkları bilgileri de en aza indirmek en iyi yollardan biridir.
Sohbet robotu kullanırken dikkat edilmesi gerekenler
Yapay zekâ platformları bu riskleri anlıyor ve azaltmak için önlemler alıyor mu? Evet ama sadece bir dereceye kadar. Çocuklarınızın yaşadığı yere ve kullandıkları sohbet robotuna bağlı olarak, yaş doğrulama veya içerik denetimi konusunda çok az şey yapılmış olabilir. Bu nedenle, proaktif izleme ve eğitim yoluyla herhangi bir tehdidin önüne geçmek kesinlikle ebeveynlerin sorumluluğundadır.
Öncelikle, çocuklarınızın yapay zekâ ile sağlıksız bir ilişki içinde olabileceğine dair birkaç işaret:
- Arkadaşları ve aileleriyle geçirdikleri ders dışı zamanlardan uzaklaşmaları,
- Sohbet robotlarına erişemediklerinde endişelenmeleri ve aşırı kullanım belirtilerini gizlemeye çalışmaları,
- Sohbet robotundan sanki gerçek bir kişiymiş gibi bahsetmeye başlamaları,
- Bariz yanlış bilgileri “gerçek” olarak size tekrarlamaları,
- Yapay zekâ sohbet robotlarına zihinsel sağlık sorunları gibi ciddi konular hakkında sorular sormaları (bunu konuşma geçmişine erişerek öğrenirsiniz),
- Yapay zekâ tarafından sunulan yetişkinlere yönelik/uygunsuz içeriğe erişmeleri.
Çocuklarla konuşma zamanı
Birçok ülkede, yapay zekâ sohbet robotları 13 yaşın üzerindeki kullanıcılarla sınırlıdır. Ancak uygulamanın düzensiz olması nedeniyle konuyu kendi elinize almanız gerekebilir. Kontrollerden daha önemli olan şey konuşmalardır. En iyi sonuçları elde etmek için teknik kontrolleri açık ve çatışmacı olmayan bir şekilde sunulan eğitim ve tavsiyelerle birleştirmeyi düşünün.
Okulda, evde veya okul sonrası kulüpte olsunlar, çocuklarınızın uyanık oldukları her dakika ne yapmaları gerektiğini söyleyen yetişkinler vardır. Bu nedenle, yapay zekâ ile ilgili iletişimlerinizi, çocuklarınızın ceza korkusu olmadan deneyimlerini rahatça paylaşabilecekleri iki yönlü bir diyalog olarak çerçevelemeye çalışın. Aşırı kullanımın, halüsinasyonların, veri paylaşımının ve ciddi sorunlarda yapay zekâya aşırı güvenmenin tehlikelerini açıklayın.
Yapay zekâ botlarının düşünebilen gerçek insanlar olmadığını, ilgi çekici olmak için tasarlanmış makineler olduğunu anlamalarına yardımcı olun. Çocuklarınıza eleştirel düşünmeyi öğretin, yapay zekâ çıktılarını her zaman doğrulayın ve ebeveynleriyle sohbet etmeyi asla bir makineyle sohbet etmekle değiştirmeyin.
Gerekirse bu eğitimi yapay zekâ kullanımını sınırlayan (tıpkı sosyal medya kullanımını veya genel olarak ekran süresini sınırlayabileceğiniz gibi) ve kullanımı yaşa uygun platformlarla sınırlayan bir politika ile birleştirin. Kullanımlarını izlemenize ve riski en aza indirmenize yardımcı olması için kullandıkları uygulamalarda ebeveyn denetimlerini etkinleştirin. Çocuklarınıza yapay zekâ ile kişisel olarak tanımlanabilir bilgileri (PII) asla paylaşmamalarını hatırlatın ve istemeden bilgi sızdırma riskini azaltmak için gizlilik ayarlarını değiştirin.
Çocuklarımızın duygusal dünyalarının merkezinde insanlara ihtiyacı var. Yapay zekâ birçok konuda yararlı bir araç olabilir. Ancak çocuklarınız yapay zekâ ile sağlıklı bir ilişki kurana kadar, kullanımları dikkatle izlenmelidir. Ve asla insan ilişkilerinin yerini almamalıdır.