Google ve Microsoft Öncülüğünde Yapay Zeka Güvenlik Komisyonu Kuruluyor
Yazı Boyutu:
Dev teknoloji rakiplerinin bir araya gelerek yapay zekanın tehlikeli bir hale gelmemesi için kurduğu Yapay Zeka Güvenlik Komisyonu’nu keşfedin.
Aspen Güvenlik Forumu’nda bugün duyurulan Yapay Zeka Güvenliği Koalisyonu (CoSAI), OASIS küresel standartlar kurumu tarafından desteklenen bir açık kaynak girişimi olarak ortaya çıkıyor. CoSAI, tüm uygulayıcılara ve geliştiricilere Güvenli Tasarım prensiplerine uygun Yapay Zeka sistemleri oluşturmak için rehberlik ve araçlar sağlamak amacıyla kuruldu. Bu girişim, açık kaynak metodolojileri, standartlaştırılmış çerçeveler ve araçlar paylaşarak işbirlikçi bir ekosistemi teşvik etmeyi amaçlıyor. Dev teknoloji şirketlerinin bir araya gelerek oluşturduğu bu yeni oluşum hakkındaki tüm detayları bu yazımızda sizin için bir araya getirdik.
CoSAI, yapay zeka güvenliğinin parçalanmış manzarasını ele almak için sektör liderleri, akademisyenler ve diğer uzmanlardan oluşan çeşitli paydaşları bir araya getiriyor. Koalisyonun öncü sponsorları arasında Google, IBM, Intel, Microsoft, NVIDIA ve PayPal yer alırken, Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI ve Wiz gibi diğer sponsorlar da destek veriyor.
CoSAI, yapay zekanın güvenli kullanımı ve dağıtımında güven ve güvenliği artırmayı amaçlayan bir girişim. Yapay zeka sistemlerinin güvenli bir şekilde inşa edilmesi, entegrasyonu, dağıtımı ve işletilmesi konularına odaklanarak model hırsızlığı, veri zehirlenmesi, istemci enjeksiyonu, ölçekli kötüye kullanım ve çıkarım saldırıları gibi riskleri hafifletmeyi hedefliyor. Proje, yapay zeka sistemlerinin klasik ve benzersiz risklerini ele alan kapsamlı güvenlik önlemleri geliştirmeyi amaçlıyor. CoSAI, akademiden ve endüstriden AI uzmanlarından oluşan bir teknik yönlendirme komitesi tarafından yönetilen bir açık kaynak topluluğu. Bu komite CoSAI’nin genel teknik gündemini ilerletiyor ve yönetiyor.
Yapay zeka, dünyamızı hızla dönüştürüyor ve karmaşık problemleri çözme konusunda büyük potansiyel taşıyor. Yapay zekaya olan güveni sağlamak ve sorumlu gelişimi sürdürmek için güvenliği ön planda tutan metodolojiler geliştirmek ve paylaşmak, yapay zeka sistemlerindeki potansiyel açıkları belirlemek ve hafifletmek kritik önem taşıyor. Geliştiriciler genellikle tutarsız ve birbirinden kopuk yönergeler ve standartlarla mücadele etmek zorunda kalıyor. Net en iyi uygulamalar ve standartlaştırılmış yaklaşımlar olmadan yapay zekaya özgü ve yaygın riskleri değerlendirmek ve hafifletmek en deneyimli şirketleriçin bile büyük bir zorluk.
Google’ın uzun süredir yapay zekayı kullandığını belirten Heather Adkins, “Yapay zeka, savunucular için büyük bir potansiyel taşırken, aynı zamanda saldırganlar için de fırsatlar sunuyor. CoSAI büyük ve küçük organizasyonların yapay zekayı güvenli ve sorumlu bir şekilde entegre etmelerine yardımcı olacak.” dedi.
Microsoft’un yapay zeka sistemi geliştirmede güvenlik ve güvenliği ön planda tutma taahhüdüne bağlı olduğunu belirten Yonatan Zunger “Yapay Zeka Güvenliği Koalisyonu’nun kurucu üyesi olarak Microsoft, yapay zeka sistemlerinin ve bunları geliştirmek için gerekli makine öğreniminin güvenli ve sorumlu kullanımını sağlamak için endüstri standartları oluşturma konusunda benzer şekilde kararlı kuruluşlarla işbirliği yapacak. Microsoft, her bireyi ve her organizasyonu daha fazlasını yapmaları için güvenli bir şekilde destekleme taahhüdünü sürdürüyor” dedi.
{278067}