Yapay zekâ (AI) araçlarıyla ilgili tartışmalar geçtiğimiz aylarda en çok öne çıkan konu haline geldi. Üretkenliği artırma ve zamandan tasarruf etme yetenekleri nedeniyle, birçok çalışan bu araçları günlük iş rutinlerine çoktan uyarladı. Ancak, ChatGPT gibi yenilikçi yapay zekâ araçlarının avantajlarından yararlanmadan önce, çalışanlarınızın şirketinizin veri güvenliğini tehlikeye atmadan bu araçlarla nasıl güvenli bir şekilde etkileşim kuracaklarını bilmeleri gerekir.
AI araçları fikir geliştirmemize, metin parçalarını özetlememize veya yeniden ifade etmemize, hatta bir iş stratejisi için bir temel oluşturmamıza veya bir koddaki hatayı bulmamıza yardımcı olabilir. Ancak yapay zekayı kullanırken, araçlara girdiğimiz verilerin gönder düğmesine bastığımız anda bize ait olmaktan çıktığını unutmamalıyız.
ChatGPT gibi büyük dil modellerini (LLM’ler) kullanırken temel kaygılardan biri, hassas verilerin büyük uluslararası şirketlerle paylaşılmasıdır. Bu modeller, kullanıcı sorgularını etkili bir şekilde yorumlamalarını ve yanıtlamalarını sağlayan çevrimiçi metinlerdir. Ancak, bir sohbet robotu ile etkileşime girip bilgi veya yardım istediğimiz her seferde, istemeden de olsa kendimiz veya şirketimiz hakkında veri paylaşabiliriz.
Bir sohbet robotu için bir istem yazdığımızda, girilen veriler herkese açık hale gelir. Bu, sohbet robotlarının bu bilgileri temel olarak diğer kullanıcılara yanıt vermek için hemen kullanacağı anlamına gelmez. Ancak, LLM sağlayıcısı veya ortakları bu sorgulara erişebilir ve bunları teknolojinin gelecekteki sürümlerine dahil edebilir
ChatGPT geçmişini kapatmak yeterli mi?
ChatGPT’nin arkasındaki kuruluş olan OpenAI, sohbet geçmişini kapatma seçeneğini sunarak kullanıcı verilerinin OpenAI’nin yapay zekâ modellerini eğitmek ve geliştirmek için kullanılmasını engelledi. Bu şekilde kullanıcılar verileri üzerinde daha fazla kontrol sahibi oluyor. Şirketinizdeki çalışanlar ChatGPT gibi araçları kullanmak istiyorlarsa, sohbet geçmişini kapatmak ilk adımları olmalıdır.
Ancak sohbet geçmişi kapalı olsa bile, tüm istem verileri sohbet botu sunucularında saklanmaya devam eder. Tüm istemlerin harici sunuculara kaydedilmesi, bilgisayar korsanlarının yetkisiz erişimine yönelik potansiyel bir tehdit oluşturmaktadır. Ayrıca, teknik hatalar zaman zaman yetkisiz kişilerin diğer sohbet robotu kullanıcılarına ait verilere erişmesini sağlayabilir.
Peki, şirket çalışanlarınızın ChatGPT gibi platformları güvenli bir şekilde kullanmasını nasıl sağlarsınız? İşte çalışanların sıklıkla yaptığı bazı hatalar ve bunlardan kaçınmanın yolları.
Müşteri verilerini girdi olarak kullanmak
Çalışanların LLM’leri kullanırken yaptıkları ilk yaygın hata, şirketlerinin müşterileri hakkındaki hassas bilgileri paylaşmaktır. Bu neye benziyor? Örneğin, doktorların hastalarının isimlerini ve tıbbi kayıtlarını gönderdiğini ve LLM aracından hastaların sigorta şirketlerine mektup yazmasını istediğini düşünün. Ya da pazarlamacıların CRM sistemlerinden müşteri verilerini yüklediğini ve aracın hedefli haber bültenleri hazırlamasını istediğini düşünün.
Çalışanlara sorgularını sohbet robotlarına girmeden önce kalıcı olarak anonimleştirmelerini öğretin. Müşteri gizliliğini korumak için isim, adres veya hesap numarası gibi hassas bilgileri gözden geçirmelerini ve dikkatlice ayıklamalarını teşvik edin. En iyi uygulama, ilk etapta kişisel bilgileri kullanmaktan kaçınmak ve genel sorulara veya sorgulara güvenmektir.
Gizli belgelerin sohbet robotlarına yüklenmesi
Sohbet robotları, büyük hacimli verileri hızlı bir şekilde özetlemek ve taslaklar, sunumlar veya raporlar oluşturmak için değerli araçlar olabilir. Yine de ChatGPT gibi araçlara belge yüklemek, bu belgelerde saklanan şirket veya müşteri verilerini tehlikeye atmak anlamına gelebilir. Belgeleri basitçe kopyalamak ve araçtan sunum slaytları için özetler veya öneriler oluşturmasını istemek cazip gelse de bu veri açısından güvenli bir yol değildir.
Bu, geliştirme stratejileri gibi önemli belgeler için geçerli olduğu gibi, toplantı notları gibi daha az önemli belgeler de çalışanların şirketlerinin değerli bilgi birikimini ortaya çıkarmasına yol açabilir.
Bu riski azaltmak için hassas belgelerin işlenmesine yönelik katı politikalar oluşturun ve bu tür kayıtlara erişimi “bilmesi gerekenler” politikasıyla sınırlandırın. Çalışanların chatbottan bir özet veya yardım talep etmeden önce belgeleri manuel olarak incelemesi gerekir. Bu, isimler, iletişim bilgileri, satış rakamları veya nakit akışı gibi hassas bilgilerin silinmesini veya uygun şekilde anonimleştirilmesini sağlar.
Şirket verilerinin ChatGPT ‘de ifşa edilmesi
Şirketinizin bazı uygulamalarını ve iş akışlarını iyileştirmeye çalıştığınızı düşünün. ChatGPT’den zaman yönetimi veya görev yapısı konusunda yardım istiyorsunuz ve chatbotun bir çözüm geliştirmesine yardımcı olmak için bilgi istemine değerli bilgi birikiminizi ve diğer verileri giriyorsunuz. Tıpkı hassas belgelerin veya müşteri verilerinin chatbotlara girilmesi gibi, hassas şirket verilerinin de bilgi istemine dahil edilmesi, yetkisiz erişime veya gizli bilgilerin sızmasına yol açabilecek yaygın ancak potansiyel olarak zarar verici bir uygulamadır.
Samsung “üretken yapay zekayı” iptal etti, Amazon temkinli davranıyor. 2023’ün başında, bir Samsung mühendisi ChatGPT’ye yüklediği hassas bir dahili kaynak kodunun sızdırıldığını keşfetti. Bu durum Samsung’un şirketteki “üretken yapay zekâ” araçlarını yasaklamasına yol açtı. Amazon da benzer bir sorunla karşılaştı. Şirketin, dahili Amazon verilerine benzeyen bazı ChatGPT yanıtlarıyla karşılaştığı bildirildi. Amazon yapay zekâ araçlarını yasaklamadı, ancak çalışanlarını bunları sorumlu bir şekilde kullanmaları konusunda uyardı. |
Bu sorunu ele almak için, istem anonimleştirme temel bir uygulama olmalıdır. Bu, chatbot istemlerine hiçbir zaman isim, adres, finansal bilgiler veya diğer kişisel verilerin eklenmemesi gerektiği anlamına gelir. Çalışanların ChatGPT gibi araçları güvenli bir şekilde kullanmasını kolaylaştırmak istiyorsanız, gerektiğinde tüm çalışanlar tarafından güvenle kullanılabilecek şablonlar olarak standartlaştırılmış istemler oluşturun, örneğin “[Şirket]’te [pozisyon] olduğunuzu hayal edin. Pozisyon] için ağırlıklı olarak [görev] odaklı daha iyi bir haftalık iş akışı oluşturun.“
Yapay zekâ araçları sadece işimizin geleceği değil; onlar zaten mevcut. Yapay zekâ ve özellikle makine öğrenimi alanındaki ilerleme her geçen gün artarken, şirketlerin kaçınılmaz olarak trendleri takip etmesi ve bunlara uyum sağlaması gerekiyor. Veri güvenliği uzmanından BT genel uzmanı pozisyonuna kadar, çalışma arkadaşlarınızın veri sızıntısı riski olmadan bu teknolojileri nasıl kullanacaklarını bildiklerinden emin olun.