Yapay zeka (AI) araçlarına dair tartışmalar son zamanlarda oldukça önemli hale geldi. Verimliliği artırma ve zaman tasarrufu sağlama potansiyeli nedeniyle, birçok çalışan bu teknolojiyi günlük iş akışlarına entegre etme eğiliminde.
Bir siber güvenlik uzmanı olan Türkiye Ürün ve Pazarlama Müdürü Can Erginkurban, ChatGPT gibi yenilikçi yapay zeka araçlarının avantajlarından yararlanmadan önce, çalışanların veri güvenliğini riske atmadan bu araçlarla nasıl güvenli bir şekilde etkileşimde bulunmaları gerektiğini önemli bir şekilde vurguluyor.
Erginkurban, yapay zeka araçlarının fikir geliştirme, metin özetleme veya iş stratejileri oluşturma gibi konularda yardımcı olabileceğini belirtiyor. Ancak bu araçları kullanırken girilen verilerin, gönder düğmesine basıldığı anda kullanıcılardan çıkarak güvende olmadığına dikkat çekiyor.
"Etkisizce veya istemeden veri paylaşımı riski"
Erginkurban, şunları ifade etti;
"ChatGPT gibi büyük dil modellerini kullanırken bir ana endişe, hassas bilgilerin büyük uluslararası şirketlerle paylaşılma olasılığıdır. Bu modeller, kullanıcı taleplerini etkili bir şekilde yorumlayabilir ve yanıtlayabilir. Ancak bir sohbet robotuyla etkileşimde bulunurken, istemeden kendimiz veya şirketimiz hakkında bilgi verme riski vardır. Bir istem yazdığımızda, girilen veriler genellikle halka açık hale gelir. Bu, sohbet robotlarının bu bilgileri hemen diğer kullanıcılara yanıtlamak için kullanacakları anlamına gelmez, ancak dil modeli sağlayıcısı veya ortakları bu verilere erişebilir ve gelecekteki teknoloji geliştirmelerinde kullanabilirler"
ChatGPT veri kontrolü
ChatGPT'nin arkasındaki OpenAI'in, kullanıcıların verilerini yapay zeka modellerini eğitmek veya geliştirmek için kullanılmasını önlemek için sohbet geçmişi kapama seçeneği sunduğunu belirten Erginkurban, şu değerlendirmelerde bulundu;
"Bu, kullanıcıların veriler üzerinde daha fazla kontrol sahibi olmasını sağlar. ChatGPT gibi araçları kullanmak isteyen çalışanlar için, sohbet geçmişini kapatma işlemi ilk adımlardan biridir. Ancak sohbet geçmişi kapalı olsa bile, istek verileri hala sohbet robotu sunucularında saklanır. Bu, potansiyel bir güvenlik tehdidi oluşturabilir, çünkü bu veriler yetkisiz erişim riskini taşır. Ayrıca teknik hatalar, zaman zaman yetkisiz kişilerin diğer sohbet robotu kullanıcılarının verilerine erişmesine yol açabilir"
Şirket çalışanlarının en sık yaptığı hatalar
Erginkurban, şu uyarıları yapıyor:
"Müşteri bilgilerini girdi olarak kullanmak: LLM'leri kullanırken çalışanların sıkça yaptığı hatalardan biri, şirketlerinin müşterileri hakkındaki hassas bilgileri paylaşmaktır. Çalışanlar, sorgularını sohbet robotlarına girmeden önce müşteri verilerini gizlilik açısından koruyacak şekilde anonimleştirmeyi öğrenmelidir. İsim, adres veya hesap numarası gibi hassas bilgileri kullanmaktan kaçınmalı ve genel sorulara odaklanmalıdır.
Gizli belgeleri sohbet robotlarına yüklemek: Sohbet robotları, büyük verileri hızlı bir şekilde özetlemek ve taslaklar, sunumlar veya raporlar oluşturmak için kullanışlı araçlar olabilir. Ancak ChatGPT gibi araçlara hassas şirket bilgileri yüklemek, bu verilerin tehlikede olabileceği anlamına gelir. Belgeleri sadece kopyalamak ve araçtan özetler veya öneriler oluşturmasını istemek cazip gelebilir, ancak bu güvenli bir yaklaşım değildir. Bu, önemli belgelerin yanı sıra toplantı notları gibi daha az önemli belgeler için de geçerlidir ve şirketin değerli bilgi birikimini tehlikeye atabilir. Çalışanlar, belgeleri sohbetbotundan önce manuel olarak gözden geçirmeli ve gerektiğinde düzenlemelidirler."
Şirket verilerinin ChatGPT ile ifşa edilmesi: Şirketiniz bazı süreçlerini veya iş akışlarını geliştirmeye çalışıyorsunuz ve ChatGPT'den zaman yönetimi veya görev planlaması konusunda yardım istiyorsunuz. Chatbotun veri talebine veri bilginizi ve diğer bilgilerinizi girdiğinizde, bu, hassas şirket verilerini yetkisiz erişime veya sızıntılara açık bırakabilecek yaygın ancak zararlı bir uygulamayı temsil eder."