Dünyanın en önde gelen yapay zekâ şirketlerinin CEO'ları, yüzlerce diğer yapay zekâ bilimcisi ve uzmanı, bugün yayımladıkları bir açık mektupla, yapay zekânın insanlığa karşı teşkil ettiği varoluşsal tehlikeler konusuna dikkat çekti.
California merkezli kar amacı gütmeyen Center for AI Safety tarafından yayımlanan mektupta, "Yapay zekâ kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır" ifadelerine yer verildi.
Mektuba imza atanlar arasında OpenAI'den Sam Altman, DeepMind'dan Demis Hassabis ve Anthropic'ten Dario Amodei gibi üç önde gelen yapay zekâ laboratuvarının CEO'ları yer aldı. Geçen ay Google'da görevinden ayrılan ve "yapay zekâ'nın vaftiz babası" olarak tanınan ve yapay zekânın insanlık için oluşturduğu riskler konusunda uyarılar yapan Geoffrey Hinton da mektuba imzasını attı.
Mart ayında bir başka açık mektupla yapay zekânın geliştirilmesine altı ay ara verilmesi çağrısında bulunulmuş ancak en üst düzey liderlerinin imzaları eksik olan mektup ve sunulan çözümün de mantıksız olduğu gerekçesiyle eleştiri almıştı.
Farklı olarak bugün yayımlanan mektupta imza sahibi olanların çoğunluğu, yapay zekâ laboratuvarlarında ve bu laboratuvarların finansmanını sağlayan büyük teknoloji şirketlerinde önemli pozisyonlara sahip kişilerden oluşuyor. Microsoft'un CTO'su Kevin Scott ve Google'da başkan yardımcısı olan James Manyika da mektubun imzacıları arasında. OpenAI'nin baş bilim adamı Ilya Sutskever ve Association for Computing Machinery'nin Turing Ödülü sahibi Yoshua Bengio gibi yapay zekâ alanında saygın isimler de imzacılar arasında yer alıyor.
Yapay zeka dünyanın gündeminde
Öte yandan mektup, hükümetlerin ve çok taraflı kuruluşların yapay zekâyı düzenlemenin aciliyeti konusunda tartıştıkları bir dönemde geldi. G7 ülkelerinin liderleri bu hafta yapay zekâ gelişimini kontrol altına almak üzere küresel teknik standartlar belirlemeyi tartışacaklar. Avrupa Birliği'nin Yapay Zeka Yasası, muhtemelen teknoloji için benzer standartları belirleyecek ancak 2025 yılına kadar tam olarak yürürlüğe girmesi beklenmiyor.
OpenAI CEO'su Altman, kamuoyu önünde küresel yapay zekâ düzenlemeleri çağrısında bulunmuş ancak AB'nin bu tür düzenlemelerin neye benzemesi gerektiği konusundaki önerilerini reddetmişti.
Mektuba eşlik eden bir açıklamada, çağrının amacının "yapay zekadan kaynaklanan önemli ve acil riskleri geniş bir yelpazede konuşmak ve ciddi riskler hakkında tartışmayı başlatmak" olduğu belirtildi. Açıklamada, "Gelişmiş yapay zekanın önemli risklerini ciddiye alan ve sayıları giderek artan uzmanlar ve kamuoyuna açık kişiler hakkında ortak bilgi yaratmayı da amaçlamaktadır" ifadelerine yer verildi.
Salı günü yayımlanan mektup, yapay zeka konusundaki hem yakın vadeli hem de uzun vadeli riskleri kapsar nitelikte. Center for AI Safety'nin direktörü Dan Hendrycks, Twitter'da "yapay zekadan kaynaklanan sadece yok olma riski değil, birçok önemli ve acil risk var; örneğin sistemik önyargı, yanlış bilgilendirme, kötü niyetli kullanım, siber saldırılar ve silahlanma. Bunların hepsi ele alınması gereken önemli risklerdir" şeklinde bir açıklama yaptı.
Mektupta Meta çalışanlarının imzalarının olmaması dikkat çekici. Şirketin yapay zekâ bölümü, güçlü büyük dil modellerinin yanı sıra strateji oyunu Diplomacy'de insan uzmanlarından daha iyi performans gösteren bir model geliştirdi. Meta'nın baş yapay zekâ bilimcisi Yann Lecun, daha önce yapay zekânın insanlık için varoluşsal bir risk oluşturduğu yönündeki uyarıları reddetmişti.