T
Tuğçe İçözü
Misafir
Dün Tüketici Şartları ve Gizlilik Politikasını değiştirdiğini
“Tüketici Şartları ve Politikaları Güncellemeleri” başlıklı açılır pencere görüntülendiğinde, “Claude'u iyileştirmeye yardımcı olabilirsiniz” seçeneğinin işaretini kaldırarak sohbetlerin kullanımının önüne geçebilirsiniz. Eğer bu yeni politikayı kabul ederseniz, tüm yeni veya devam eden sohbetleriniz Anthropic tarafından kullanılabilecek. Claude'u kullanmaya devam etmek için 28 Eylül 2025 tarihine kadar kabul veya reddetme seçeneğini belirlemeniz gerektiğini belirtelim. Eğer verilerinizin eğitim sürecine dahil edilmesini istemiyorsanız, Claude'un Ayarlar bölümüne gidip Gizlilik seçeneğini seçerek “Claude'u iyileştirmeye yardımcı olun” seçeneğinin işaretini kaldırabilirsiniz.
Anthropic'in belirttiğine göre bu yeni eğitim politikası, şirketin daha yetenekli, daha kullanışlı yapay zeka modelleri sunmasına imkan tanıyacak. Bununla beraber, şirketin dolandırıcılık ve kötüye kullanım gibi zararlı kullanımlara karşı koruma önlemlerini güçlendirmesine destek olacağını da belirtelim.
Güncellenen şartlar, Claude Free, Pro ve Max planlarındaki tüm kullanıcılar için geçerliyken, Claude for Work veya Claude for Education gibi ticari şartlar kapsamındaki hizmetler için planının geçerliliği bulunmuyor. Aynı şekilde API kullanımı gibi Anthropic'in ticari kullanım kademelerine, Amazon Bedrock ve Google Cloud'un Vertex AI gibi üçüncü taraflar aracılığıyla olan kullanımlar için de güncellenen şartlar geçerli değil.
Şimdiye kadar Anthropic, kullanıcılar geri bildirim göndermedikçe, Claude'u eğitmek veya geliştirmek için kullanıcıların konuşmalarını ve verilerini kullanmıyordu. Hatta kendini gizliliğe önem veren etik bir yapay zeka şirketi olarak tanımlıyor ve OpenAI'dan ayrıştığını iddia ediyordu.
Bu yeni güncelleme ile birlikte Anthropic, Claude'u eğitmek için sohbet metinlerini kullanmanın yanı sıra, veri saklama süresini beş yıla da uzatıyor. Silinen sohbetlerin gelecekteki model eğitimi için kullanılmayacağını ekleyelim. Anthropic, eğitim için veri paylaşımına izin vermeyenlerin bilgilerini 30 gün boyunca saklamaya devam edecek. Anthropic'in belirttiğine göre; hassas verileri filtrelemek için araçlar ve otomatik süreçlerin bir kombinasyonunu kullanılacak ve üçüncü taraflara hiçbir bilgi vermeyecek.
Ziyaretçiler için gizlenmiş link,görmek için
Giriş yap veya üye ol.
Ziyaretçiler için gizlenmiş link,görmek için
Giriş yap veya üye ol.
, yapay zeka sohbet robotu Claude'u kullanıcı verileriyle eğitmeyi planladığını duyurdu. Mevcut kullanıcılar Anthropic'in verilerini yapay zeka eğitimi amacıyla kullanmasını devre dışı bırakabilecekleri bir açılır pencere görecek. Yeni kullanıcılar ise kayıt sırasında bu seçeneği devre dışı bırakabilecek.“Tüketici Şartları ve Politikaları Güncellemeleri” başlıklı açılır pencere görüntülendiğinde, “Claude'u iyileştirmeye yardımcı olabilirsiniz” seçeneğinin işaretini kaldırarak sohbetlerin kullanımının önüne geçebilirsiniz. Eğer bu yeni politikayı kabul ederseniz, tüm yeni veya devam eden sohbetleriniz Anthropic tarafından kullanılabilecek. Claude'u kullanmaya devam etmek için 28 Eylül 2025 tarihine kadar kabul veya reddetme seçeneğini belirlemeniz gerektiğini belirtelim. Eğer verilerinizin eğitim sürecine dahil edilmesini istemiyorsanız, Claude'un Ayarlar bölümüne gidip Gizlilik seçeneğini seçerek “Claude'u iyileştirmeye yardımcı olun” seçeneğinin işaretini kaldırabilirsiniz.
Anthropic'in belirttiğine göre bu yeni eğitim politikası, şirketin daha yetenekli, daha kullanışlı yapay zeka modelleri sunmasına imkan tanıyacak. Bununla beraber, şirketin dolandırıcılık ve kötüye kullanım gibi zararlı kullanımlara karşı koruma önlemlerini güçlendirmesine destek olacağını da belirtelim.
Güncellenen şartlar, Claude Free, Pro ve Max planlarındaki tüm kullanıcılar için geçerliyken, Claude for Work veya Claude for Education gibi ticari şartlar kapsamındaki hizmetler için planının geçerliliği bulunmuyor. Aynı şekilde API kullanımı gibi Anthropic'in ticari kullanım kademelerine, Amazon Bedrock ve Google Cloud'un Vertex AI gibi üçüncü taraflar aracılığıyla olan kullanımlar için de güncellenen şartlar geçerli değil.
Şimdiye kadar Anthropic, kullanıcılar geri bildirim göndermedikçe, Claude'u eğitmek veya geliştirmek için kullanıcıların konuşmalarını ve verilerini kullanmıyordu. Hatta kendini gizliliğe önem veren etik bir yapay zeka şirketi olarak tanımlıyor ve OpenAI'dan ayrıştığını iddia ediyordu.
Bu yeni güncelleme ile birlikte Anthropic, Claude'u eğitmek için sohbet metinlerini kullanmanın yanı sıra, veri saklama süresini beş yıla da uzatıyor. Silinen sohbetlerin gelecekteki model eğitimi için kullanılmayacağını ekleyelim. Anthropic, eğitim için veri paylaşımına izin vermeyenlerin bilgilerini 30 gün boyunca saklamaya devam edecek. Anthropic'in belirttiğine göre; hassas verileri filtrelemek için araçlar ve otomatik süreçlerin bir kombinasyonunu kullanılacak ve üçüncü taraflara hiçbir bilgi vermeyecek.
Ziyaretçiler için gizlenmiş link,görmek için
Giriş yap veya üye ol.