Google, Bard adlı kendi yapay zeka sohbet robotunu geliştirmeye devam ederken, ana şirketi Alphabet, çalışanları için açık bir yönerge yayınladı: Bard da dahil olmak üzere sohbet robotlarını kullanırken dikkatli olun.
Konuya yakın dört kaynak Reuters’a, teknoloji devinin çalışanlarına sızıntı korkusuyla OpenAI’nin ChatGPT’si veya Google’ın kendi Bard’ı gibi sohbet robotlarına gizli bilgileri girmemelerini tavsiye ettiğini söyledi. Alphabet’in, diğer uçta sohbet girdilerini inceliyor olabilecek insan denetleyiciler tarafından okunabileceğinden dolayı çalışanların bu sohbet robotlarına hassas bilgiler girmemesini istediği söyleniyor. Ayrıca, bu sohbet robotlarının kendilerini eğitmek için daha önceki girdileri kullanabiliyor olmaları da başka bir sızıntı riski oluşturuyor. Samsung’un geçtiğimiz ay personelinin ChatGPT’yi kullanmasının ardından kendi dahili verilerinin sızdırıldığını doğrulaması, bu riskin ne kadar gerçek olduğunu gösteriyor.
Ocak ayında bir Amazon avukatı, şirket çalışanlarını ChatGPT ile kod paylaşmamaya çağırdı. Insider tarafından incelenen Slack mesajlarının ekran görüntülerine göre, avukat, çalışanlardan “herhangi bir Amazon gizli bilgisini (üzerinde çalıştığınız Amazon kodu dahil)” ChatGPT ile paylaşmamalarını özellikle talep etti.
Apple da geçtiğimiz ay çalışanlarına benzer bir tedbir kararı gönderdi. The Wall Street Journal tarafından elde edilen dahili belgeler, Apple’ın çalışanların ChatGPT’yi ve bir yapay zeka kod yazarı olan Microsoft’a ait GitHub Copilot’u kullanmasını yasakladığını gösteriyordu. Ayrıca The Wall Street Journal ile görüşen kaynaklar, teknolojideki her büyük şirket gibi Apple’ın da kendi geniş dil modelini oluşturmakla ilgilendiğini ve 2020’de sırasıyla 200 milyon dolar ve 50 milyon dolar karşılığında iki yapay zeka girişimi satın aldığını söyledi.
Kaynak: Chip