Anthropic, Google, Microsoft ve OpenAI, bir AI güvenlik grubu oluşturuyor Frontier Model Forum, güvenli ve dikkatli AI gelişimine odaklanacağını belirtiyor. AI gelişiminin birçok güvenlik riski getirdiği sır değil. Yönetim organları düzenlemeleri sunmaya çalışırken, şu an için çoğunlukla şirketlerin kendilerinin tedbir alması gerekiyor. Kendi kendini denetleme gösterisinin en son örneği, Anthropic, Google, Microsoft ve OpenAI’in bir araya gelerek oluşturduğu Frontier Model Forum’dan geliyor. Bu, güvenli ve dikkatli AI gelişimine odaklanan bir endüstri liderliğindeki kuruluştur. Forum, sınırların ötesine geçen ve geniş bir yetenek yelpazesi olan “büyük ölçekli makine öğrenimi modelleri” olarak nitelendirdiği modelleri ele alıyor.
Forum, danışma komitesi, şartname ve finansman kurmayı planlıyor. İleri AI güvenliği araştırmalarını ilerletmeye, en iyi uygulamaları belirlemeye, politika yapıcılar, akademisyenler, sivil toplum ve şirketlerle yakın işbirliği yapmaya ve “toplumun en büyük sorunlarını çözmeye yardımcı olabilecek AI geliştirmek için çaba göstermeye” odaklanacağı dört temel ilkeyi ortaya koydu.
Üyelerin iddia edildiğine göre, ilk üç hedef üzerinde önümüzdeki yıl çalışacakları belirtiliyor. Üyelik konusunda duyuruda, katılmak için gereken nitelikler, sınırların ötesindeki modelleri üretmek ve onları güvenli hale getirme konusundaki açık taahhütleri gibi detaylandırılmıştır. “Özellikle en güçlü modeller üzerinde çalışan AI şirketlerinin, mümkün olan en geniş faydaya sahip olmasını sağlamak için ortak bir zeminde uyum sağlaması ve düşünceli ve adapte edilebilir güvenlik uygulamalarını ilerletmesi hayati önem taşıyor,” diyor OpenAI’in küresel işler başkan yardımcısı Anna Makanju açıklamasında. “Bu acil bir iş ve bu forum, AI güvenliğinin durumunu hızla ilerletmek için iyi bir konumda bulunuyor.”
Forum’un oluşturulması, Beyaz Saray ve bu yeni girişimin sorumlusu olan en üst düzey AI şirketleri arasında son zamanlarda yapılan bir güvenlik anlaşmasını takip ediyor. Taahhüt edilen güvenlik önlemleri, dış uzmanlar tarafından kötü davranışlar için testler yapmayı ve AI tarafından oluşturulan içeriğe bir filigran koymayı içeriyor.
Hata!
Yorumunuz Çok Kısa, Yorum yapabilmek için en az En az 10 karakter gerekli