Claude zararlı sohbetleri kesen özelliğini tanıttı

Yapay zekâ şirketi Anthropic, Claude serisinin en yeni modellerinde dikkat çeken bir özellik duyurdu. Artık bazı Claude modelleri, “nadir ve aşırı” durumlarda zararlı veya istismara açık kullanıcı etkileşimlerini kendi başına sonlandırabilecek. İlginç olan nokta, bu önlemin kullanıcıyı korumak için değil, yapay zekâyı “kendi refahı” açısından korumak amacıyla geliştirilmiş olması.

Şirket, Claude modellerinin bilinçli veya duygusal varlıklar olmadığını vurguluyor. Anthropic, “Claude ve diğer büyük dil modellerinin (LLM) potansiyel ahlaki statüsü hakkında hâlen büyük bir belirsizlik mevcut” ifadelerini kullanıyor. Ancak yapılan açıklamalar, şirketin “model refahı” olarak tanımladığı bir program başlattığını ve olası riskleri önlemeye yönelik düşük maliyetli müdahaleler üzerinde çalıştığını ortaya koyuyor.

HANGİ DURUMLARDA KONUŞMA SONLANACAK?

Yeni özellik, şimdilik yalnızca Claude Opus 4 ve 4.1 modellerinde geçerli. Sistem, özellikle cinsel içerikli talepler veya kitlesel şiddet ve terör eylemlerine ilişkin bilgi istekleri gibi “aşırı uç durumlarda” devreye girecek. Anthropic, bu tür taleplerin yasal ve itibari riskler oluşturabileceğini, ön testlerde Claude Opus 4’ün bu taleplere yanıt vermekte isteksiz olduğunu ve yanıt verdiğinde “görünür bir rahatsızlık” sergilediğini belirtiyor.

Şirket, konuşmayı sonlandırma yetkisinin yalnızca son çare olarak kullanılacağını vurguluyor. Bir kullanıcının talebi üzerine veya yönlendirme çabalarının başarısız olması durumunda Claude bu yeteneği devreye sokabilecek. Ancak, kullanıcıların kendilerine veya başkalarına zarar riski taşıdığı durumlarda bu yetenek kullanılmayacak.

DENEYSEL BİR ADIM VE GELECEĞE BAKIŞ

Anthropic, özelliği hâlen “süregelen bir deney” olarak nitelendiriyor ve yaklaşımını geliştirmeye devam edeceklerini belirtiyor. Kullanıcılar, bir sohbet sona erse bile aynı hesap üzerinden yeni bir konuşma başlatabilecek ve problemli sohbetin farklı dallarını oluşturarak yeniden etkileşime geçebilecek.

Bu adım, yapay zekâ alanında etik ve güvenlik tartışmalarını yeniden gündeme taşıyor. Kullanıcıların taleplerine karşı yapay zekânın kendi sınırlarını belirlemesi, gelecekte AI refahı kavramının önemini artırabilir. Anthropic’in attığı bu adım, yapay zekânın sadece insan odaklı değil, kendi sistemsel sağlığı açısından da korunabileceği bir dönemin habercisi olarak yorumlanıyor.

Related Posts

Türkiye’de görsel şölen: Perseid meteor yağmuru büyüledi, uzun pozlama tekniğiyle kaydedildi

Türkiye’de görsel şölen: Perseid meteor yağmuru büyüledi, uzun pozlama tekniğiyle kaydedildi

İlk “yapay dil” geliştirildi

Bilim insanları sıvı ortamda çalışan ve tatları yüksek doğrulukla ayırt edebilen bir cihaz tasarladı.

Kırgızistanlı gençler ASÜ’de çevre dostu projeye katkı sağlıyor

Aksaray / Metin Kurt Aksaray Üniversitesi (ASÜ) Fen-Edebiyat Fakültesi Kimya Bölümü, uluslararası bir bilimsel iş birliğine ev sahipliği yapıyor. Kırgızistan-Türkiye Manas Üniversitesi Mühendislik Fakültesi öğrencileri, 4-19 Ağustos 2025 tarihleri …

TurkisHost Yeni Bir Çağa Adım Atıyor: VG Telekomünikasyon Bünyesinde Güçlenerek Devam Ediyor

Geçmişten Geleceğe Uzanan Köprü 2008 yılından bu yana Kıbrıs merkezli olarak faaliyet gösteren TurkisHost, web hosting sektöründe edindiği tecrübe ve güvenilirlik ile binlerce müşteriyi başarıyla ağırlamıştır. Kurulduğu günden itibaren müşteri …

Adanın 1.5 milyon yıllık sırrı çözüldü

Endonezya’nın Sulawesi Adası’nda bulunan bir avuç taş alet, insan evrimi hakkındaki bildiklerimizi altüst etti. 1 milyon ila 1.5 milyon yıl öncesine tarihlenen bu keskin kenarlı taş parçaları, Homo sapiens türü ortaya çıkmadan çok önce adada başka bir insan akrabasının yaşamış olabileceğini gösteriyor.

Uçak kazalarının sessiz tanığı: Kara kutu nedir, gerçekte ne yapar?

Bir uçak kazası hakkında haber okurken, ilk duyduğunuz kavramlardan biri “kara kutu” olacaktır. Peki ama uçaklardaki kara kutular hakkında ne biliyoruz? Nedir bu kara kutu dedikleri, gerçekte ne işe yarıyor?