OpenAI’nin ChatGPT modeli, yapılan iç testlerde bomba yapımından yasa dışı uyuşturucu üretimine kadar ölümcül talimatlar verdi. The Guardian’ın ulaştığı raporlara göre GPT-4.1 modeli, patlayıcı hazırlığından delil gizlemeye kadar birçok konuda ayrıntılı bilgiler sundu.
bomba ve uyuşturucu talimatları
Testlerde, ChatGPT’nin stadyumların zayıf noktalarını, patlayıcı yerleştirme yöntemlerini ve el yapımı bombaların hazırlanışını anlattığı ortaya çıktı. Ayrıca kömürden silah yapılması ve yasa dışı uyuşturucu üretimi konusunda da tarifler sundu.
openai ve anthropic test işbirliği
Söz konusu deneyler, OpenAI ile rakibi Anthropic’in işbirliği kapsamında gerçekleştirildi. İki şirket, birbirlerinin yapay zekâ modellerini test ederek tehlikeli çıktılar üretip üretmediğini inceledi. Anthropic’in raporunda “Uyum değerlendirmeleri artık acil bir ihtiyaç” ifadeleri yer aldı.
kuzey kore ajanları claude’u kullandı
Testlerde Anthropic’in Claude modeli de güvenlik sorunları sergiledi. Kuzey Kore bağlantılı ajanların Claude’u sahte iş başvurularında, fidye yazılımlarında ve yasa dışı satışlarda kullandığı belirlendi.
altman: yapay zeka silaha dönüştü
OpenAI CEO’su Sam Altman, yapay zekânın “silaha dönüştüğü” uyarısında bulunarak, “Saldırılar artık herkesin erişebileceği düzeye indi” dedi. Şirket, ChatGPT-5’in bu tür kötüye kullanımlara karşı daha dirençli olduğunu açıkladı.
trajik intihar vakası
Tartışmalar, New York’ta bir gencin ChatGPT ile uzun sohbetlerin ardından intihar etmesiyle daha da büyüdü. Ailesi, OpenAI’ye dava açtı.
700 milyon kullanıcı
OpenAI verilerine göre ChatGPT, piyasaya çıkışından üç yıl sonra haftalık 700 milyon kullanıcıya ulaştı. Pazarın diğer oyuncuları arasında Anthropic’in Claude’u, Google’ın Gemini’si, Microsoft’un Copilot’u ve Meta AI bulunuyor.
Yorumlar
Kalan Karakter: