SON YENİLİKLER

Anthropic, Google, Microsoft ve OpenAI’den Oluşan AI Güvenlik Grubu Kuruluyor

Anthropic, Google, Microsoft ve OpenAI gibi önemli teknoloji şirketleri, AI gelişimi sırasındaki güvenlik risklerini ele almak amacıyla bir araya geliyor. Bu yeni girişim olan Frontier Model Forum, büyük ölçekli makine öğrenimi modellerini ve AI'nin gelecekteki potansiyelini ele almayı amaçlayan bir platformdur. Forum, güvenli AI gelişimi konusunda araştırma yapmayı, en iyi uygulamaları belirlemeyi, politika yapıcılar, akademisyenler, sivil toplum ve şirketlerle iş birliği yapmayı ve toplumun büyük sorunlarına çözüm sağlayacak AI teknolojilerinin geliştirilmesini teşvik etmeyi amaçlamaktadır. Bu yazıda, Frontier Model Forum'un kuruluş amacı, üyeleri ve gelecekteki hedefleri hakkında daha fazla bilgi bulabilirsiniz.
 Anthropic, Google, Microsoft ve OpenAI’den Oluşan AI Güvenlik Grubu Kuruluyor
Okunuyor Anthropic, Google, Microsoft ve OpenAI’den Oluşan AI Güvenlik Grubu Kuruluyor

Anthropic, Google, Microsoft ve OpenAI, bir AI güvenlik grubu oluşturuyor Frontier Model Forum, güvenli ve dikkatli AI gelişimine odaklanacağını belirtiyor. AI gelişiminin birçok güvenlik riski getirdiği sır değil. Yönetim organları düzenlemeleri sunmaya çalışırken, şu an için çoğunlukla şirketlerin kendilerinin tedbir alması gerekiyor. Kendi kendini denetleme gösterisinin en son örneği, Anthropic, Google, Microsoft ve OpenAI’in bir araya gelerek oluşturduğu Frontier Model Forum’dan geliyor. Bu, güvenli ve dikkatli AI gelişimine odaklanan bir endüstri liderliğindeki kuruluştur. Forum, sınırların ötesine geçen ve geniş bir yetenek yelpazesi olan “büyük ölçekli makine öğrenimi modelleri” olarak nitelendirdiği modelleri ele alıyor.

Forum, danışma komitesi, şartname ve finansman kurmayı planlıyor. İleri AI güvenliği araştırmalarını ilerletmeye, en iyi uygulamaları belirlemeye, politika yapıcılar, akademisyenler, sivil toplum ve şirketlerle yakın işbirliği yapmaya ve “toplumun en büyük sorunlarını çözmeye yardımcı olabilecek AI geliştirmek için çaba göstermeye” odaklanacağı dört temel ilkeyi ortaya koydu.

Üyelerin iddia edildiğine göre, ilk üç hedef üzerinde önümüzdeki yıl çalışacakları belirtiliyor. Üyelik konusunda duyuruda, katılmak için gereken nitelikler, sınırların ötesindeki modelleri üretmek ve onları güvenli hale getirme konusundaki açık taahhütleri gibi detaylandırılmıştır. “Özellikle en güçlü modeller üzerinde çalışan AI şirketlerinin, mümkün olan en geniş faydaya sahip olmasını sağlamak için ortak bir zeminde uyum sağlaması ve düşünceli ve adapte edilebilir güvenlik uygulamalarını ilerletmesi hayati önem taşıyor,” diyor OpenAI’in küresel işler başkan yardımcısı Anna Makanju açıklamasında. “Bu acil bir iş ve bu forum, AI güvenliğinin durumunu hızla ilerletmek için iyi bir konumda bulunuyor.”

Forum’un oluşturulması, Beyaz Saray ve bu yeni girişimin sorumlusu olan en üst düzey AI şirketleri arasında son zamanlarda yapılan bir güvenlik anlaşmasını takip ediyor. Taahhüt edilen güvenlik önlemleri, dış uzmanlar tarafından kötü davranışlar için testler yapmayı ve AI tarafından oluşturulan içeriğe bir filigran koymayı içeriyor.

Yorum Yap

Giriş Yap
Yazı Ekle