Giriş
Stockholm (İsveç) merkezli Stockholm Uluslararası Barış Araştırmaları Enstitüsü (SIPRI), silahlı çatışma, askeri harcamalar, silah ticareti, silahsızlanma ve silah kontrolü konularında veri, analiz ve tavsiyeler sunan çok önemli bir düşünce kuruluşudur. 1966 yılında Tage Erlander ve Alva Myrdal tarafından kurulan kuruluşun günümüzdeki Başkanı ise eski İsveç Başbakanı Stefan Löfven’dir. SIPRI, 1969 yılından beri uzmanlaştığı silahlanma ve silahsızlanma konularında bir yıllık rapor yayınlamaktadır. SIPRI Yıllığı (SIPRI Yearbook) adı verilen bu rapor, uluslararası bir kitap hüviyetinde Oxford University Press tarafından basılarak kitap sitelerinde satışa sunulmakta, ayrıca bazı bölümleri ücretsiz olarak kuruluşun web sitesinden meraklılara duyurulmaktadır. Bu yazıda, SIPRI’nin 2025 yıllığında yer alan “yapay zekâ ve uluslararası barış ve güvenlik” konulu 12. bölümden önemli kısımlar özetlenecektir.

Yapay Zekâ ve Uluslararası Barış ve Güvenlik
Jules Palayer ve Laura Bruun imzalı 12. bölümün orijinal ismi "Artificial intelligence and international peace and security" (Yapay zekâ ve uluslararası barış ve güvenlik) şeklindedir. 18 sayfalık bu bölümde, SIPRI, görece yeni bir alan olan yapay zekânın askeri teknolojiler ve devletlerin silahlanma veya silahsızlanma politikaları üzerine etkilerini incelemektedir.
Raporun "Giriş" (Introduction) bölümünde, ilk olarak, son 10 yıldır yapay zekânın askeri kullanımlarına ilişkin uluslararası politika tartışmalarının çoğunlukla otonom silah sistemlerine (AWS/autonomous weapon systems) odaklandığı ve bunların "genellikle etkinleştirildikten sonra insan müdahalesi olmadan hedefleri seçip etkisiz hale getirebilen silah sistemleri" olarak nitelendirildiği açıklanmaktadır. Ancak rapora göre, 2023'ten bu yana, bu alandaki tartışma, genellikle yapay zekâ destekli karar destek sistemleri olarak adlandırılan hedefleme, planlama ve istihbarat analizi gibi yapay zekânın diğer askeri kullanımlarına doğru da genişlemiştir. Özellikle Gazze ve Ukrayna'daki mevcut silahlı çatışmalarda yapay zekânın kullanımı, askeri yapay zekâ konusunun politika yapıcılar için acil bir mesele olduğunu somut olarak ortaya koymuştur. Ek olarak, yazarlara göre, sivil yapay zekâ çalışmaları da barış ve güvenliğe yeni riskler oluşturabilir. Örneğin, bazı yapay zekâ modelleri kötü niyetli aktörlerin yasaklanmış silahları (kimyasal, biyolojik, radyolojik ve nükleer silahlar) geliştirmek ve kullanmak için kritik bilgilere erişmesine yardımcı olabilir. Aynı şekilde, yapay zekâ, siber suçluların ve bilgisayar korsanlarının zararlı operasyonlar gerçekleştirmesi için bir tür yetenek artışı da sağlayabilir. Dahası, üretken yapay zekâ araçları, dezenformasyon yapmak için de kötüye kullanılabilir ve bu da uluslararası sistemde ve devletlerle halklar arasında "güven ve inancın" aşınmasına neden olabilir. Bu nedenle, yapay zekânın sadece askeri değil, sivil risklerine de odaklanmak yerinde olacaktır.
"Askeri yapay zekânın ortaya koyduğu zorlukların yönetimi" (Governing the challenges presented by military artificial intelligence) başlıklı ikinci bölümde, yazarlar tarafından, yapay zekânın askeri kullanımına ilişkin politika tartışmasının genişlemesinin bu alanda yeni forum ve girişimlerin oluşturulmasında kendini gösterdiği belirtilerek, bu bölümde 2024 yılında askeri yapay zekânın ve otonom silah sistemlerinin daha geniş uygulamalarıyla ilgili olarak gerçekleşen ana gelişmelerin özetleneceği ifade edilmektedir. Bu bölümde, ilk olarak, otonom silah sistemlerine (AWS) değinilmektedir.
Otonom silah sistemleri (AWS) konusundaki hükümetler arası tartışma, 2013 yılından bu yana, özellikle 1981 tarihli Belirli Konvansiyonel Silahlar Sözleşmesi (CCW/Convention on Certain Conventional Weapons) kapsamında, ağırlıklı olarak "ölümcül otonom silah sistemleri" (LAWS/lethal autonomous weapon systems) merceğinden ele alınmaktadır. 2017 yılından bu yana bir hükümet uzmanları grubu tarafından yürütülen tartışmalar, LAWS'un ortaya koyduğu zorlukların, örneğin Belirli Konvansiyonel Silahlar Sözleşmesi kapsamında yeni bir protokol şeklinde yeni bir düzenlemenin benimsenmesini gerektirip gerektirmediği etrafında yoğunlaşmaktadır. Bu konu tartışılmaya devam ederken, son birkaç yıldır LAWS'u sözde iki kademeli bir yapı aracılığıyla yönetmeye yönelik artan bir destek ortaya çıkmıştır. Önerilen iki kademeli yapı, belirli LAWS türlerini yasaklayacak ve diğer tüm LAWS türlerine de sınırlamalar ve gereksinimler getirecektir. Ancak neyin yasaklanması, kısıtlanması veya gerekli olması gerektiği henüz kararlaştırılmamıştır. 2024'teki hükümet uzmanları grubu toplantıları, devletlere konuyu daha ayrıntılı olarak tartışma fırsatı sağlamıştır. Hollanda Büyükelçisi Robert in den Bosch başkanlığındaki LAWS (ölümcül otonom silah sistemleri) 2024 yılı hükümet uzmanları grubu toplantısı, "doğasını önceden belirlemeksizin, bir enstrümanın unsurları kümesini ve LAWS alanındaki gelişmekte olan teknolojilere yönelik diğer olası önlemleri daha ayrıntılı olarak ele almak ve fikir birliğiyle formüle etmek" için üç yıllık bir göreve sahiptir. Üç yıllık görev süresi göz önüne alındığında, uzmanlar grubu toplantısının yıl sonuna kadar nihai bir rapor kabul etmesi gerekmiyordu. Bunun yerine, 2024 yılı, önemli konuları daha derinlemesine tartışmak ve 2026'da kapsamlı bir rapor için ortak zemin alanlarını belirlemek için uzmanlara fırsat sağladı. Başkan tarafından hazırlanan ve "sürekli güncellenen bir metin" etrafında yapılandırılan 2024 tartışmalarının merkezinde üç konu yer almıştır: (1) LAWS'un (ölümcül otonom silah sistemleri) özellikleri ve tanımları, (2) uluslararası insancıl hukukun uygulanması ve buna uyum sağlamak ve (3) riskleri azaltmak için önlemler. Hükümet uzmanları grubu, bu konuları 2024 yılında gerçekleştirdiği iki resmi toplantısında (Mart ayındaki 5 günlük bir oturum ve Ağustos ayındaki 5 günlük bir diğer oturum) ve bir dizi gayriresmi çevrimiçi oturumlar arası istişarede ele aldı. CCW (Belirli Konvansiyonel Silahlar Sözleşmesi) kapsamında on yılı aşkın süredir devam eden görüşmelere rağmen, devletler, hâlâ, LAWS (ölümcül otonom silah sistemleri) tanımı konusunda anlaşmaya varamamıştır. Nitekim Rusya Federasyonu ve Türkiye gibi bazı devletler için, bir tanım üzerinde anlaşmak, herhangi bir düzenleyici görüşme için ön koşuldur. Diğer devletlerin çoğu ise, bir "çalışma tanımı" üzerinde anlaşmanın, düzenlemenin unsurlarını belirlemek için yeterli olduğu görüşündedir. Bu yaklaşımı izleyen uzmanlar grubu Başkanı, 2024 yılında bu tür bir çalışma tanımı etrafında uzun tartışmalar başlatmıştur. Çoğu devlet, LAWS'u "aktif hale getirildikten sonra, insan operatörünün daha fazla müdahalesi olmadan bir hedefi seçebilen ve hedef alabilen silah sistemleri" olarak tanımlamayı desteklemiştir. Bu tanım, yıllardır birçok devlet ve Uluslararası Kızılhaç Komitesi (ICRC) tarafından kullanılmaktadır. Ancak uzmanlar grubu, hedefleme kararlarında insan rolünün nasıl yansıtılacağı, hangi "silah sistemlerinin" dahil edilmesi gerektiği ve bir tanımın "öldürücü" niteliğini içermesi gerekip gerekmediği konusundaki süregelen anlaşmazlıklar nedeniyle henüz bir çalışma tanımı konusunda anlaşmaya varamadı. İkinci noktaya gelince, çoğunluk AWS'nin (otonom silah sistemleri) LAWS'a (ölümcül otonom silah sistemleri) tercih edilebilir olduğunu savundu; birçoğu "öldürücülüğün" silah sisteminin tasarımından ziyade kullanım şekli ve etkileriyle ilgili olduğunu ve otonom silah sistemlerinin, ölümün amaçlanan veya fiili sonuç olup olmadığına bakılmaksızın, maddi hasar veya yaralanma şeklinde zarar verebileceğini savundu. Uzmanlar grubu toplantısının on yıldan fazla süren tartışmalardan sonra LAWS konusunda ortak bir kavramsal anlayış oluşturamaması, hem grup içinde, hem de dışında birçok kişi için büyük bir hayalkırıklığı yarattı.
Hükümet uzmanları grubu, daha önce, uluslararası insancıl hukukun, LAWS'un geliştirilmesi ve kullanımına tamamen uygulandığını tespit etmiştir. 2024 yılında, grup, uluslararası insancıl hukuktan kaynaklanan belirli yasakların, sınırlamaların ve gerekliliklerin neler olduğunu ve bunların iki kademeli bir araçta nasıl yansıtılabileceğini tartışmıştır. Uzmanlar grubu için, uluslararası insancıl hukuka uygun olarak kullanılamayan LAWS'un yasak olduğu konusu tartışmasızdır. Ayrıca, başta Rusya olmak üzere birkaç devlet dışında, çoğu, etkileri ve davranışları "makul bir şekilde öngörülemeyen veya kontrol edilemeyen" LAWS'un, bu tür silah sistemleri uluslararası insancıl hukuka uygun olarak kullanılamayacağı için yasak olarak kabul edilmesi gerektiği konusunda hemfikirdir. Bununla birlikte, hükümet uzmanlar grubu, etkileri ve davranışları açıklanamayan ve geri izlenemeyen LAWS'un da yasak olup olmayacağı konusunda bölünmüştür. ICRC ve Avusturya, Pakistan, Meksika ve Filistin gibi birkaç devlet, bu tür sistemlerin uluslararası insancıl hukuka uygunluğu ihlal edeceğini savunurken, Amerika Birleşik Devletleri (ABD) gibi diğerleri buna katılmayarak, uluslararası insancıl hukuka uygunluğun, uygunluk için gerekli davranışlarla karıştırılmaması konusunda uyarıda bulunmuştur. Buna karşılık, Pakistan, açıklanabilirlik ve izlenebilirlik ile ilgili gerekliliklerin uluslararası insancıl hukukta bir temeli olduğunu, ancak devletlerin daha önce bunlar hakkında düşünmeye zorlanmadığını savunmuştur. Uzmanlar grubu, ayrıca, uluslararası insancıl hukukun LAWS'un tasarımı ve kullanımı üzerinde getirdiği belirli sınırlamaları da tartışmıştır. Yeni Zelanda, Pakistan ve Filistin'in yanı sıra, ICRC de dahil olmak üzere büyük bir devlet grubu, LAWS kullanımının sivillerin bulunmadığı alanlarla sınırlandırılması ve LAWS'un yalnızca insanları değil, nesneleri de hedef alacak şekilde tasarlanıp kullanılması gerektiği yönünde görüş bildirdi. Almanya, İsrail ve Birleşik Krallık (İngiltere) gibi diğer devletler ise, bu tür kategorik sınırlamalara karşı çıkarak, uluslararası insancıl hukuka uyumun bağlama bağlı olduğunu vurguladı.
Uluslararası insancıl hukuka uyumu sağlamaya yönelik önlemler konusunda ise, önceki yıllarda olduğu gibi, hükümet uzmanlar grubu, beklenen kullanım koşullarında sistem yetenekleri ve sınırlamaları hakkındaki anlayışı geliştirmek amacıyla, titiz test ve değerlendirme, yasal incelemeler ve kullanıcı eğitiminin önemini tartıştı. Buna ek olarak, sistemlerdeki önyargıyı tespit etme ve azaltma önlemlerinin sağlanmasının önemi, 2024 yılında önceki yıllara göre daha fazla dikkat çekti. Çeşitli risk azaltma önlemlerinin alınması gerekliliğine geniş destek olmasına rağmen, devletler, bu önlemlerin bağlayıcı mı, yoksa gönüllü mü olması gerektiği ve dolayısıyla potansiyel iki kademeli bir düzenlemede nasıl yansıtılması gerektiği konusunda farklı görüşlere sahipti. Genel olarak, 2024 tartışması, somut sonuçlara yol açabilecek uzlaşma dilini belirleme ihtiyacı konusunda devletler arasında zengin tartışmalar ve yapıcı bir ruhla karakterize edildi. Bununla birlikte, olumlu hava büyük ölçüde hükümet uzmanları grubunun yıl sonuna kadar bir rapor hazırlayıp üzerinde anlaşmaya varmak zorunda olmamasından kaynaklanmaktadır. Nihai raporun 2026'dan önce kabul edilmesi beklenmiyor ve esaslı tartışmaların böyle bir uzlaşma belgesine yansıtılıp yansıtılmayacağı kesin değil. Yapıcı atmosferin altında, özellikle yeni bir yasal olarak bağlayıcı araca ihtiyaç olup olmadığı ve düzenlemenin yalnızca uluslararası insancıl hukuka dayanması gerekip gerekmediği gibi temel anlaşmazlıklar ve özellikle etik ve insan haklarıyla ilgili diğer endişeler devam ediyor. Bununla birlikte, 2024 yılı, Başkan'ın özeti ve 2025'teki tartışmaları desteklemek üzere tüm metnin revize edilmiş bir versiyonuyla sona erdi.
AWS (otonom silah sistemleri) üzerine bölgesel ve uluslararası konferanslar anlamında geçtiğimiz yıl düzenlenen bölgesel konferansların (Kosta Rika, Trinidad ve Tobago ve Filipinler) ardından, Sierra Leone 17-18 Nisan tarihlerinde Batı Afrika Devletleri Ekonomik Topluluğu (ECOWAS) üyeleri için AWS üzerine bölgesel bir konferansa ev sahipliği yaptı. Konferans, ECOWAS üyelerinin "anlamlı insan kontrolü" olmadan kullanılan AWS'nin ciddi yasal, etik ve güvenlik endişeleri yarattığını vurguladığı bir bildiriyle sonuçlandı. Bildiri, AWS'yi düzenlemek için yasal olarak bağlayıcı bir araç üzerinde acil müzakereler yapılması çağrısında bulundu. 29-30 Nisan tarihlerinde ise, Avusturya, AWS'nin ortaya çıkardığı yasal ve etik zorlukları tartışmak üzere bir konferansa ev sahipliği yaptı. 144 ülkeden 1000'den fazla temsilcinin katıldığı konferans, Avusturya hükümetinin daha sonra Birleşmiş Milletler Genel Sekreteri'nin AWS hakkındaki raporuna sunduğu bir "konferans özeti" ile sonuçlandı.
Birleşmiş Milletler (BM) Genel Sekreteri António Guterres'in LAWS (ölümcül otonom silah sistemleri) hakkındaki raporuna da bu noktada değinmek gerekir. 2023 yılında, BM Genel Kurulu, Genel Sekreter Guterres'i, üye devletlerin ve gözlemci devletlerin LAWS hakkındaki görüşlerini (insani, hukuki, güvenlik, teknolojik ve etik perspektiflerden LAWS'un ortaya çıkardığı endişeleri giderme yollarına odaklanarak) almak ve görüşlerin tüm yelpazesini yansıtan bir rapor sunmakla görevlendirdi. Genel Sekreter, 73'ten fazla ülkeden toplam 58 başvuru ve ICRC, sivil toplum grupları ve bilim camiasından 33 başvuru daha aldı. Rapor, Temmuz 2024'te yayınlandı. Genel Sekreter Guterres, raporun "Sonuç" bölümünde, "uluslararası toplumun bu konuda önleyici tedbirler alması için zamanın daraldığını" vurguladı ve devletleri, en geç 2026 yılı sonuna kadar LAWS'u yasaklamak ve düzenlemek için yasal olarak bağlayıcı bir araç benimsemeye çağırdı. Guterres, özellikle insan kontrolü veya gözetimi olmadan işleyen, uluslararası insancıl hukuka uygun olarak kullanılamayan ve insanları hedef almak için kullanılan LAWS'un yasaklanması ve diğer tüm LAWS türlerinin düzenlenmesi gerektiğini savundu. İleriye dönük yol konusunda ise, Genel Sekreter, LAWS üzerine hükümet uzmanları grubunu "görevlerini mümkün olan en kısa sürede yerine getirmek için gayretle çalışmaya" ve Genel Kurul'u LAWS hakkındaki görüşmelere devam etmeye teşvik etti. Genel Sekreter'in raporuna sunulan görüşler büyük ölçüde hükümet uzmanları grubu toplantısında ifade edilen görüşleri yansıtırken, rapor, devletlerin görüşlerini de içerdiği için daha kapsamlıydı. Zira rapor, hükümet uzmanları grubuna taraf olmayan ülkeler de dahil olmak üzere, uluslararası insancıl hukukun ötesindeki etik, insan hakları ve uluslararası güvenlik ile ilgili endişeleri de ele almıştır. Bu nedenle, raporun kapsamı ve Genel Sekreter'in önemli tavsiyeleri, birçok devlet ve sivil toplum kuruluşu tarafından, silah kullanımını düzenleyen yasal olarak bağlayıcı bir araç oluşturulmasına yönelik önemli bir ivme kazandırıcı olarak algılanmıştır.
Birleşmiş Milletler Genel Kurulu'nun LAWS (ölümcül otonom silah sistemleri) hakkındaki kararı konusunda, Kasım 2024'te, BM Genel Kurulu Birinci Komitesi, LAWS hakkında ikinci kararını kabul etmiştir. Avusturya tarafından sunulan ve 26 ortak sponsor devletin oluşturduğu bölgesel bir grup tarafından desteklenen karar, LAWS'un ortaya çıkardığı ciddi insani, hukuki, güvenlik, teknik ve etik zorlukları kabul etmiştir. Kararda dikkat çekici bir unsur, BM Genel Sekreteri'nden, diğer hususların yanı sıra, Genel Sekreter'in LAWS hakkındaki raporunu ve hükümet uzmanları grubunun LAWS hakkındaki çalışmalarını değerlendirmek üzere 2025 yılında gayri resmi istişareler düzenlemesini istemesidir. New York'ta iki gün sürmesi beklenen gayri resmi istişareler, tüm BM üye devletleri ve gözlemci devletleri, uluslararası ve bölgesel örgütler, ICRC ve bilim camiası ve endüstri de dahil olmak üzere sivil toplumun katılımına açık olacaktır. Karara göre, gayri resmi istişareler, tartışmaların yerini almak değil, onları tamamlamak amacıyla yapılmaktadır. Ancak, birçok devlet uzmanlar grubunun silahsızlanma konularını ele almak için uygun forum olmaya devam ettiğini vurgularken, Genel Kurul'un birçok devlet için çekiciliği, etik ve insan hakları değerlendirmelerinden yayılma endişelerine ve küresel güvenlik ile bölgesel ve uluslararası istikrar üzerindeki etkilere kadar daha geniş bir yelpazedeki bakış açılarının dahil edilmesine olanak sağlamasıdır.
Askeri yapay zekâ konusundaki bir diğer önemli gelişme, REAIM Zirvesi'nin Seul'de 2024 yılında düzenlenmesidir. Güney Kore, Kenya, Hollanda, Singapur ve Birleşik Krallık zirveye ortak ev sahipliği yaptılar. İlk olarak 2023 yılında Hollanda tarafından başlatılan REAIM Zirvesi, çok çeşitli paydaşların askeri yapay zekânın yönetişimini tartışması için bir platform sağlıyor. 2024 yılında gündem üç tematik başlık etrafında düzenlendi: (1) yapay zekânın uluslararası barış ve güvenliğe etkisi, (2) askeri alanda sorumlu yapay zekânın uygulanması ve (3) askeri alanda yapay zekânın gelecekteki yönetişiminin öngörülmesi. REAIM 2024, askeri alanda sorumlu yapay zekâ için bir Eylem Planı'nın kabul edilmesiyle sonuçlandı. Tüm kıtaları kapsayan 63 ülke bu sonuç belgesini kabul ederken, bazı önemli devletler ise bunu kabul etmediler. 2024 Zirvesi'ne katılmalarına rağmen Çin, Hindistan ve İsrail, eylem çağrısına katılmama kararı aldılar. Rusya ise, 2022'deki Ukrayna'ya yönelik topyekün işgali nedeniyle zirveye davet edilmedi. Eylem Planı, zirvenin üç tematik akışı arasında bölünmüş 20 eylemi derleyen bir yumuşak hukuk belgesidir. Eylemler, "yapay zekânın faydalarından ve fırsatlarından yararlanırken, ilgili riskleri ve zorlukları yeterince ele almayı" amaçlamaktadır.
Yapay zekânın uluslararası barış ve güvenliğe etkisi konusunda destekleyici devletler, askeri yapay zekânın askeri uygulamalar için faydaları olduğunu kabul ederken, potansiyel risklerini de kabul etmektedirler. İlk olarak, Eylem Planı, politika eyleminin yapay zekâ destekli silahlardan öteye geçmesi ve‘savaş operasyonları için yapay zekâ destekli karar destek sistemleri, siber operasyonlarda yapay zekâ, elektronik savaşta yapay zekâ ve bilgi operasyonlarında yapay zekâya dikkat etmesi gerektiğini vurgulamakta ve "yapay zekâ teknolojisinin kitle imha silahlarının yayılmasına katkıda bulunmasını önleme ihtiyacını" vurgulamaktadır. İkinci tematik akış altındaki eylemler –askeri alanda sorumlu yapay zekânın uygulanması– askeri yapay zekânın araştırma, tasarım, geliştirme ve uygulanmasında uluslararası hukukun ve diğer ilgili yasal çerçevelerin geçerliliğini yeniden teyit etmektedir. Bu bölüm, ayrıca, orduda sorumlu yapay zekâ için bazı temel ilkeleri de kabul etmektedir. Bunlar; insan sorumluluğu ve hesap verebilirliği, güvenilirlik, uygun insan katılımı ve "askeri alanda yapay zekâ yetenekleri tarafından üretilen çıktıları anlama, açıklama, izleme ve güvenme" yeteneğidir. Son olarak, üçüncü tematik akış altındaki eylemler —askeri alanda yapay zekânın gelecekteki yönetimini öngörmek— askeri alanda yapay zekânın sorumlu geliştirilmesi, konuşlandırılması ve kullanımı konusunda uluslararası iş birliğinin ve kapasite geliştirmenin önemini vurgulamaktadır. Bu bölüm, ayrıca, askeri alanda yapay zekâ ile bağlantılı çok sayıda girişimin varlığını kabul etmekte ve bunlar arasında daha "sinerjik ve tamamlayıcı" bir yaklaşımı teşvik etmektedir. Zirve'den hemen sonra, Orduda Sorumlu Yapay Zekâ Küresel Komisyonu (GC REAIM) toplandı. İlk REAIM Zirvesi'nden sonra kurulan ve askeri yapay zekâ konusunda çeşitli uzmanlardan oluşan GC REAIM, orduda sorumlu yapay zekâ kullanımı konusunda uluslararası tartışmalara rehberlik etmeyi amaçlamaktadır. Özellikle, amacı, "askeri alanda yapay zekânın küresel yönetişimiyle ilgili konularda çalışan birçok topluluk arasında karşılıklı farkındalık ve anlayışın geliştirilmesi"dir. Başlangıçta iki yıl için kurulan bu grup, şu konuları kapsayacak bir "stratejik rehber raporu" hazırlayacaktır: (a) askeri alanda sorumlu yapay zekadan ne kastedildiği, (b) askeri alanda yapay zekâyı sorumlu bir şekilde tasarlamak, geliştirmek, üretmek, tanıtmak ve kullanmak için yapay zekâ yaşam döngüsüne dahil edilmesi gereken unsurlar ve (c) askeri alanda yapay zekâyı sorumlu bir şekilde tasarlamak, geliştirmek ve kullanmak için kurulması gereken yönetişim mekanizmaları. GC REAIM, 2025 yılında planlanan çeşitli toplantılar aracılığıyla çalışmalarına devam edecektir. Aralık 2024 sonu itibariyle, hiçbir devlet üçüncü bir REAIM Zirvesi düzenleme ve ev sahipliği yapma taahhüdünde bulunmamıştır.
BM Genel Kurulu'nun askeri yapay zekâya ilişkin kararı ise şöyledir; REAIM Zirvesi'nin iki orijinal organizatörü olan Hollanda ve Güney Kore, 2024 yılında, 21 devletten oluşan bölgesel bir grubun ortak sponsorluğunda, BM Genel Kurulu'na "Askeri alanda yapay zekâ ve bunun uluslararası barış ve güvenliğe etkileri" başlıklı ortak bir karar tasarısı sunmuştur. Karar tasarısı, 24 Aralık'ta Birinci Komite'de 159 lehte, 2 aleyhte (Rusya ve Kuzey Kore) ve 5 çekimser (Belarus, Etiyopya, İran, Nikaragua, Suudi Arabistan) oyla kabul edilmiştir. Karara karşı çıkan Rusya, LAWS üzerine hükümet uzmanları grubu gibi çok taraflı süreçlerin parçalanması, gelecekteki askeri yapay zekâ düzenlemelerinin önceden belirlenmesi, belirsiz temel terimler, uluslararası hukukta olmayan tartışmalı kriterlere dayanılması ve kararın kapsayıcı olmayan bir devlet grubunun görüşlerini yansıtması konusundaki endişelerini dile getirmiştir. Bu karar tasarısı ve REAIM Zirveleri ile, Hollanda ve Güney Kore, "askeri alanda yapay zekânın kullanımı için uluslararası standartlar belirlemeyi" amaçlamaktadır. Karar, Eylem Planı'nın ruhunu BM bağlamına aktarıyor; ancak önemli bir farkla, kararın kitle imha silahlarına atıfta bulunmamasıdır. Karar metni, askeri yapay zekânın yönetimi için çok paydaşlı bir yaklaşımın benimsenmesinin önemini vurguluyor ve özel sektörün, sivil toplumun ve akademinin, devletlerin ve toplumun yapay zekanın barış ve güvenliğe nasıl risk oluşturduğunu anlamalarına yardımcı olmada oynadığı kritik rolü kabul ediyor. Birleşmiş Milletler Şartı'nın, uluslararası insancıl hukukun ve uluslararası insan hakları hukukunun askeri yapay zekâya uygulanmasını yineliyor ve devletleri, yapay zekânın orduya entegrasyonunun fırsatlarını ve zorluklarını ele almak için çok taraflı diyaloglara devam etmeye davet ediyor. Karar, aynı zamanda, dijital teknolojilerin ve yapay zekânın küresel yönetişimi için 2024 BM çerçevesi olan Küresel Dijital Mutabakatı yankılayarak, devletleri "askeri alanda sorumlu yapay zekâ konusunda ülkeler arasındaki uçurumları kapatmaya" davet ediyor ve devletleri askeri alanda yapay zekânın sorumlu uygulanması konusunda iyi uygulamaları ve öğrenilen dersleri paylaşmaya çağırıyor. 2023 tarihli LAWS hakkındaki karara benzer şekilde, bu karar da BM Genel Sekreteri'nden, yapay zekânın askeri alana entegrasyonunun uluslararası barış ve güvenliğe getirdiği fırsatlar ve zorluklar hakkındaki devletlerin görüşlerini toplamayı ve bu görüşleri bir raporda yayınlamayı talep ediyor. Ancak burada odak noktası açıkça LAWS dışındaki alanlar olacak. BM Genel Sekreteri, ayrıca, uluslararası ve bölgesel kuruluşlardan, ICRC'den, sivil toplumdan, bilim camiasından ve endüstriden de görüş alacak ve "bu görüşleri, söz konusu raporun ekinde alınan orijinal dilde yer alacak şekilde" dahil edecektir.
Bir diğer konu ise bu konudaki ABD Siyasi Bildirisi'dir. Şubat 2023'te Lahey'deki REAIM Zirvesi'nde başlatılan Yapay Zekâ ve Otonominin Sorumlu Askeri Kullanımına İlişkin ABD Siyasi Bildirisi, sorumlu askeri yapay zekâyı teşvik etmek için 10 temel ilke belirlemiştir. Başlangıçta, ABD Siyasi Bildirisi, diğer devletlerden sınırlı destek almış ve bu da desteği genişletmek için revizyonlara yol açmıştır. Ana değişikliklerden biri, bazı devletlerin bu hükmü nükleer silahların meşrulaştırılması olarak görmesi ve bu nedenle bildiriyi desteklemekte isteksiz olması nedeniyle, nükleer komuta ve kontrolde yapay zekaya yapılan atıfın kaldırılmasıydı. Siyasi bildirinin revize edilmiş bir versiyonu Kasım 2023'te yayınlandı ve Aralık 2024 sonunda 58 devlet tarafından onaylandı. Mart 2024'te, ABD, siyasi bildiriyi onaylayan devletlerin ilk genel kurul toplantısını düzenledi. Washington DC'deki toplantıda hazır bulunan onaylayan devletler, teknik alışverişler yoluyla siyasi bildirinin uygulanmasını teşvik etmekle görevli üç çalışma grubu oluşturdu. "Yapay Zekâ Güvencesi" üzerine çalışan birinci çalışma grubu, yapay zekâ sistemlerinin tanımlanmış kullanımlar için katı yönergeleri izlemesini, titiz testlerden geçmesini, hatalara karşı koruma önlemleri almasını ve insan müdahalesi yeteneklerini sağlamaya odaklanmaktadır. ‘Hesap Verebilirlik’ üzerine çalışan ikinci çalışma grubu, yapay zekâ yönetiminin insani yönüyle ilgilenmektedir: askeri personelin teknolojinin yeteneklerini ve sınırlarını anlamak için uygun eğitim almasını ve işlevselliği hakkında açık, denetlenebilir belgelere erişmesini sağlamak. ‘Denetim’ üzerine çalışan üçüncü çalışma grubu, uluslararası insancıl hukuka uyumu sağlamak için yasal incelemelerin zorunlu kılınması, üst düzey yetkililer tarafından denetimin kurulması ve yapay zekâ sistemlerindeki istenmeyen önyargıların ortadan kaldırılması da dahil olmak üzere geniş politika konularına odaklanmaktadır. ABD'nin siyasi bildirisi, diğer askeri yapay zekâ yönetimi girişimlerine ve yapay zekâ ve AWS ile ilgili yasal ve etik sorunları ele alan diğer uzmanlaşmış forumlara tamamlayıcı bir araç olarak çerçevelenmiştir. Bu bildiriyle, ABD, benzer düşünen devletlerle ortak ilkeler altında uyum sağlamayı ve bunların uygulanmasına yönelik çalışmayı amaçlamaktadır.
"Sivil yapay zekânın ortaya koyduğu zorlukların yönetimi" (Governing the challenges presented by civilian artificial intelligence) adlı üçüncü bölümde, SIPRI uzmanları, öncelikle, devletlerin, sivil yapay zekâdaki gelişmelerin barış ve güvenliği olumsuz etkileyebileceğini kabul ettiklerini vurgulamaktadırlar. Uzmanlar ve devletler, bu riskleri çeşitli platformlarda azaltmayı amaçlamaktadırlar. Önemli çok taraflı çabalar arasında BM öncülüğündeki teknoloji yönetimi süreçleri ve Yapay Zekâ Güvenliği Zirvesi yer almaktadır. BM'nin küresel yapay zekâ yönetimine yönelik çabaları Yapay zekânın vaatleri ve tehlikeleri, 2024 yılında BM Genel Kurulu'nda önemli bir konu olarak ortaya çıktı. BM Genel Sekreteri, 79. oturumun açılış konuşmasında, yapay zekâ teknolojisinin hem riskler, hem de faydalar getirdiğini vurgulayarak, BM'yi yapay zekânın iyilik için bir güç olmasını sağlamak ve yapay zekânın zorlukları konusunda uluslararası iş birliğini merkezileştirmek için önemli bir platform olarak konumlandırdı. Genel tartışma sırasında, liderler, bilimsel gelişmelerin kötüye kullanılması, yapay zekâ destekli dezenformasyon çağında demokratik süreçlere yönelik tehdit ve 'gelişmiş ve gelişmekte olan ülkeler arasında yapay zekâ kullanımı ve geliştirilmesinden kaynaklanan eşitsizlikler' gibi yapay zekâdan kaynaklanan varoluşsal riskler konusunda endişelerini dile getirdiler.
Genel Kurul'un 79. oturumu, 79/1 sayılı Karar uyarınca kabul edilen üç sonuç belgesiyle sonuçlanan Gelecek Zirvesi ile başlamıştır: Gelecek Paktı, Küresel Dijital Mutabakat ve Gelecek Nesiller Bildirgesi. Gelecek Paktı, barış ve güvenlik, insan hakları, sürdürülebilir kalkınma ve dijital iş birliği de dahil olmak üzere geniş bir yelpazedeki konuları ele almayı amaçlayan çok taraflılığı teşvik etmek için 56 eylemi içermektedir. Küresel Dijital Mutabakat, gelişmiş ve gelişmekte olan bölgeler arasındaki dijital uçurumları kapatmak ve küresel dijital ve yapay zeka yönetişimi için bir temel oluşturmak üzere tasarlanmıştır. Paktın barış ve güvenliğe ayrılmış bölümünde, 27. eylem yapay zeka yönetişimi açısından önem taşımaktadır. Gelişen teknolojilerle ilgili diğer taahhütler arasında, devletler, AWS (otonom silah sistemleri) konusunda bir araç geliştirmeye (doğası hakkında ön yargıda bulunmaksızın), dijital uçurumları ele almak için iş birliğini arttırmaya, askeri yapay zekânın etkisini izlemeye devam etmeye ve BM Genel Sekreteri'nden yeni ve gelişmekte olan teknolojilerin barış ve güvenlik üzerindeki etkileri hakkında rapor vermeye devam etmesini istemeye söz veriyorlar. Bu son taahhüt, devletlerin BM bünyesinde çok disiplinli Bağımsız Uluslararası Yapay Zeka Bilimsel Paneli kurmayı ve yapay zeka yönetişimi konusunda küresel bir diyalog başlatmayı kabul ettiği Küresel Dijital Mutabakat'ın 5. hedefiyle ilgilidir. Bu panelin amacı, “kanıt temelli etki, risk ve fırsat değerlendirmeleri yoluyla bilimsel anlayışı teşvik etmek” olacaktır. Hem Gelecek Paktı, hem de Küresel Dijital Mutabakat, Birleşmiş Milletler Genel Sekreteri'nin Yapay Zekâ Yüksek Düzey Danışma Kurulu'nun (AIAB) Gelecek Zirvesi'nin başında sunulan “İnsanlık İçin Yapay Zekayı Yönetmek” raporunun tavsiyelerine dayanmaktadır. Hükümet, özel sektör ve sivil toplum da dahil olmak üzere tüm bölgelerden ve çeşitli sektörlerden 39 uzmandan oluşan bir danışma grubu olan AIAB, Aralık 2023'te BM Genel Sekreteri tarafından kurulmuştur. 2000'den fazla katılımcıyla yapılan kapsamlı bir küresel istişarenin sonucu olan AIAB raporu, küresel olarak kapsayıcı bir yapay zekâ yönetişim yapısının kurulması da dahil olmak üzere önemli tavsiyelerde bulunmaktadır. Rapor, ayrıca, mevcut düzenleyici boşlukları doldurmak için yedi adım özetlemekte ve insan haklarını korurken yapay zekâyı sorumlu bir şekilde geliştirmek için sektörler arası iş birliğini teşvik etmektedir.
Ek olarak, Mayıs 2024'te, Güney Kore, Kasım 2023'teki Birleşik Krallık Yapay Zeka Güvenliği Zirvesi'nin ardından ikinci kez Seul Yapay Zeka Güvenliği Zirvesi'ne ev sahipliği yapmıştır. Birleşik Krallık Zirvesi, Çin ve ABD de dahil olmak üzere birçok devletin, en gelişmiş yapay zekâ modellerinin (sınır modelleri) özellikle sibergüvenlik, biyoteknoloji ve yanlış bilgilendirme alanlarında güvenlik riskleri oluşturabileceğini kabul ettiği Bletchley Deklarasyonu'nu benimsemesiyle sonuçlandı. Seul Zirvesi ise dört önemli gelişme getirdi. Birincisi, 27 devletin ve Avrupa Birliği'nin (AB) Bakanları, yapay zek güvenliği, inovasyon ve kapsayıcılığı ilerletmeye yönelik Seul Bakanlar Bildirisi'ni ortaklaşa onayladı. Bu bildiri, Yapay Zekâ Güvenliği Zirveleri'nin kapsamını inovasyon ve kapsayıcılığı içerecek şekilde genişletiyor. Bletchley Deklarasyonu'nun aksine, Seul Bakanlar Bildirisi, Çin tarafından, nedenleri belirsiz olsa da, onaylanmadı; ancak bazıları zirvenin küresel yapay zeka yönetişimine Batı merkezli bir bakış açısını teşvik etmek' olarak görülebileceğini öne sürdü. İkinci olarak, 10 devlet ve AB, Yapay Zeka Güvenliği Bilimi Üzerine Uluslararası İşbirliğine Yönelik Seul Niyet Bildirisi'ni onayladı. Bu niyet bildirisi, ABD'nin Uluslararası Yapay Zeka Güvenliği Enstitüleri Ağı'nın ilk resmi toplantısını düzenlediği Kasım 2024'te somutlaştı. Üçüncü olarak, Anthropic, Google, Microsoft, Mistral AI, Naver, OpenAI ve Zhipu.ai dahil olmak üzere 16 önde gelen yapay zekâ şirketi, Sınır Yapay Zeka Güvenliği Taahhütleri'ni kabul ettiler. Bu taahhütler -Sınır Model Forumu veya Beyaz Saray Taahhütleri gibi yapay zekâ güvenliğini ilerletmeye yönelik diğer özel sektör taahhütlerinin aksine- ABD ve Çin de dahil olmak üzere farklı coğrafi bölgelerden şirketleri içeriyor. İmza sahibi şirketler, şirket düzeyinde ve gönüllü olarak risk azaltma önlemleri üzerinde çalışmayı taahhüt ediyorlar. En gelişmiş modellerin geliştirilmesi ve bir sonraki Yapay Zekâ Güvenliği Zirvesi'nde ilerlemeleri hakkında rapor vermeleri bekleniyor. Seul Zirvesi'nin dördüncü önemli gelişmesi, Kanadalı bilgisayar bilimcisi Yoshua Bengio tarafından koordine edilen ve çeşitli ülkelerden farklı bir yapay zeka uzmanı grubunun katılımıyla hazırlanan Gelişmiş Yapay Zekanın Güvenliği Üzerine Uluslararası Bilimsel Rapor'un ara sürümünün sunulmasıydı. Bu ara rapor, genel amaçlı yapay zekâ hakkındaki mevcut bilimsel bilgileri özetliyor ve bundan kaynaklanan riskleri anlamaya ve yönetmeye odaklanıyor. Rapor, bu riskleri üç kategoriye ayırıyor: (1) arıza riskleri, (2) kötü amaçlı riskler ve (3) sistemik riskler. Bir sonraki Yapay Zekâ Güvenliği Zirvesi, Şubat 2025'te Paris'te "Paris Yapay Zekâ Eylem Zirvesi" adı altında yapılacak ve ilk iki zirvede kaydedilen ilerlemeyi uygulamaya yönelik somut adımlara odaklanılması amaçlanıyor. Bu Zirve, 2025'te başarıyla gerçekleştirilmiştir.
"Yapay zekânın yönetişiminde diğer önemli gelişmeler" (Other important developments in the governance of artificial intelligence) başlıklı dördüncü ve son bölümde, yazarlar, önceki bölümde ele alınan yapay zekânın oluşturduğu çeşitli risklerin yönetimine ilişkin iki çok taraflı sürecin yanı sıra, 2024 yılında başka önemli gelişmeler ve girişimlerin de gerçekleştiğini vurgulamaktadırlar. Bunların başında AB'nin yapay zekâyı düzenleme çabaları, ABD'nin Yapay Zekanın Güvenli, Emniyetli ve Güvenilir Geliştirilmesi ve Kullanımına İlişkin Başkanlık Kararnamesinin uygulanması ve Çin'in çeşitli yapay zeka yönetişim girişimleri geliyor.

AB'nin Yapay Zekâ Düzenlemesi: 2024 yılında, AB, yapay zekâ ile ilgili ilk bağlayıcı düzenleme olan Yapay Zekâ Yasası'nı kabul ederek, yapay zekâ yönetişiminde önemli bir dönüm noktası oluşturdu. Bu düzenlemeyle, AB, temel hakları, demokrasiyi ve hukukun üstünlüğünü korurken, Avrupa'da yapay zekâ inovasyonunu teşvik etmeyi amaçladı. Yapay Zekâ Yasası, bazı yapay zekâ uygulamalarını yasaklıyor; bunlar arasında belirli türdeki tahmine dayalı polislik, sosyal puanlama ve insan davranışını manipüle eden yapay zekâ yer alıyor. Diğer uygulamalar için ise, ürünleriyle ilişkili risklere bağlı olarak yapay zekâ sağlayıcıları için farklı gereksinimler belirleyen risk tabanlı bir yaklaşım benimsiyor. AB'nin Yapay Zekâ Yasası, yalnızca askeri, savunma ve ulusal güvenlik amaçları için tasarlanmış ürünler için geçerli değildir. Bununla birlikte, sivil ve askeri yapay zekâ geliştirme arasındaki örtüşme, bazı uzmanların Avrupa'daki askeri yapay zekâ inovasyonu üzerinde dolaylı etkiler öngörmesine yol açmıştır. Yapay Zekâ Yasası'nın bir diğer önemli unsuru ise sınır ötesi etkisidir. Sağlayıcının konumundan bağımsız olarak, AB pazarında kullanılan veya bir AB vatandaşını etkileyen tüm ürünler için geçerlidir. Bu, uluslararası standartlar üzerinde etkili olmak amacıyla, AB'nin veri koruma normlarını şekillendirmedeki emsaline benzer şekilde, bu uluslararası etki yönü de dahil edilmiştir. Yapay Zekâ Yasası'nın uygulanmasını denetlemek için, Avrupa Komisyonu, Avrupa Yapay Zekâ Ofisi'ni de kurmuştur. Haziran 2024'ten beri faaliyette olan Yapay Zekâ Ofisi, AB üye devletlerindeki yapay zekâ yönetişim organlarına yardımcı olmakta, genel amaçlı yapay zekâyı test etmek için araçlar ve metodolojiler geliştirmekte, 'güvenilir' yapay zekânın geliştirilmesini ve kullanımını teşvik etmekte ve uluslararası iş birliğini desteklemektedir. 2024'teki diğer önemli eylemler arasında, Yapay Zekâ Ofisi, genel amaçlı yapay zekâ modelleri için kılavuzlar geliştirmek üzere çok paydaşlı bir istişare başlatmıştır. Bu sürecin bir kısmı, sistemik riskleri belirleme, değerlendirme ve azaltma uygulamalarının geliştirilmesine odaklanmaktadır. Yapay Zekâ Yasası bağlamında, sistemik riskler, genel amaçlı yapay zekanın güvenlik, emniyet, kamu sağlığı ve temel haklar üzerindeki gerçek veya potansiyel olumsuz etkilerini ifade etmektedir. Yapay Zekâ Ofisi, 2025 yılında denetim çalışmalarına devam edecek ve yılın ikinci yarısında genel amaçlı yapay zekâ kılavuzu yayınlaması beklenmektedir.

ABD'nin Güvenli, Emniyetli ve Güvenilir Yapay Zeka Hakkındaki Başkanlık Kararnamesinin Uygulanması: 30 Ekim 2023'te, Beyaz Saray, Yapay Zekânın Güvenli, Emniyetli ve Güvenilir Geliştirilmesi ve Kullanımı Hakkında 14110 Sayılı Başkanlık Kararnamesi'ni yayınladı. 2024 yılı boyunca, çeşitli ABD federal kurumları, kararnamenin hükümlerini uygulamaya başladılar. Başkanlık kararnamesinin önemli bir sonucu, ABD Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) bünyesinde yer alan ABD Yapay Zekâ Güvenliği Enstitüsü'nün (USAISI) kurulması oldu. Şubat ayında, ABD Ticaret Bakanı, USAISI'nin liderliğini açıkladı ve Mayıs ayında, Enstitü, yapay zekâ risklerinin anlaşılması ve azaltılmasına yönelik stratejisini yayınladı. USAISI'nin çalışmaları, kimyasal ve biyolojik araştırmalarda kullanılan yapay zekâ modellerinin güvenliği gibi konuları ele alarak, diğer yapay zekâ güvenliği enstitüleriyle uluslararası iş birlikleri kurarak, yapay zekânın ulusal güvenlik üzerindeki etkisini izlemek için bir görev gücü oluşturarak yıl boyunca ivme kazandı. Başkanlık kararnamesi, ayrıca, yapay zekânın birçok ülke için stratejik bir teknoloji olduğunun ABD tarafından kabul edildiğini yansıtan bir Ulusal Güvenlik Muhtırası (NSM) çağrısında bulundu. NSM, ABD yapay zekâ ekosistemlerinin korunmasına, güvenli, emniyetli ve güvenilir yapay zekânın sağlanmasına ve yapay zekânın küresel olarak kötüye kullanımının azaltılmasına öncelik vermektedir. Ayrıca, yapay zekâ geliştirmede özel sektörün katılımının önemini ve hükümet koordinasyonuna duyulan ihtiyacı vurgulamaktadır. NSM, özellikle siber güvenlik ve biyolojik ve kimyasal silah riskleri gibi alanlarda yapay zekâ güvenliği konusunda özel sektör ile hükümet arasında birincil bağlantı kurma görevini NIST ve USAISI'ye vermiştir. Bu çabalar ise genelde kırılgan yasal zeminlere dayanmaktadır. Başkanlık kararnamesi kolayca iptal edilebilirdi ki, nitekim yeniden Başkan seçilen Donald Trump, yeniliği engellediğini ve 'bu teknolojinin gelişimine radikal solcu fikirler dayattığını' savunarak emri yürürlükten kaldırma sözü verdi. Yeni ABD yönetimi altında yapay zekâ yönetiminin geleceği, 2024 yılının sonunda belirsizliğini koruyordu; bazı sesler daha çok Silikon Vadisi dostu politikalara, daha az tekel karşıtı düzenlemeye ve yapay zekâ yönetiminde potansiyel olarak daha büyük bir parçalanmaya doğru bir kayma öngörüyordu.

Çin'in Yapay Zeka Yönetişimi: Çin'in yapay zekâ yönetişimine ilişkin vizyonu, Ekim 2023'te Küresel Yapay Zekâ Girişimi'nin kabulüyle ortaya kondu. Bu girişimi yayınlaması ve Bletchley Deklarasyonu'nu imzalamasından bu yana, Çin, 2024 yılında Üretken Yapay Zeka Hizmetleri için Temel Güvenlik Gereksinimleri'ni yayınlayarak, ulusal yapay zekâ yönetişimi çabalarını ilerletti. Belge, ulusal güvenliğe yönelik tehditler, ayrımcı veya yanlış içerik, ticari ihlaller, gizlilik ihlalleri ve tıp ve altyapı gibi kritik alanlardaki yanlışlıklar dahil olmak üzere beş kategoride çeşitli güvenlik ve emniyet riskleri için ön dağıtım testleri önermektedir. Yapay zekâ güvenliği araştırmacılarına göre, Çinli araştırmacılar ayrıca büyük dil modellerinin (LLM) 'unutulması', biyoloji ve kimyadaki kötüye kullanım riskleri ve LLM'lerdeki 'güç arayışı' ve 'öz farkındalık' risklerinin değerlendirilmesi gibi öncü konulara giderek daha fazla odaklanarak, yapay zekâ güvenlik değerlendirme araçları geliştirmede de aktif rol oynamışlardır. Diğer iki önemli gelişme ise Fransa ile yapay zekâ yönetişimi konusunda ortak bir bildiri yayınlanması ve ilk hükümetler arası diyaloğun gerçekleştirilmesidir. Mayıs 2024'te ise, ABD ile Çin, yapay zekânın sunduğu fırsatları ve zorlukları kabul ederek, güvenli yapay zekâ sistemlerinin geliştirilmesine katkıda bulunmayı taahhüt ettiler. Ayrıca, AIAB'nin "İnsanlık İçin Yapay Zekâyı Yönetmek" raporu gibi mevcut girişimleri destekleyerek küresel yapay zekâ yönetişimi çabaları içinde çalışmaya devam etmeyi taahhüt ettiler. Ek olarak, Çin, 2025 Paris Yapay Zekâ Eylem Zirvesi'ne katılma isteğini dile getirmiş ve sonra bu zirveye katılım göstermiştir. Mayıs 2024'te, ek olarak, ABD ve Çin heyetleri Cenevre'de yapay zekâ yönetişimi konusunda görüşmek üzere bir araya geldiler. Çin, yapay zekânın daha güçlü küresel yönetimine destek verdiğini ifade ederek, BM'nin öncü rolünü vurguladı ve ABD de dahil olmak üzere uluslararası toplumla koordinasyon kurarak yapay zekâ yönetimi için küresel olarak kabul görmüş standartlar oluşturma isteğini dile getirdi. Ancak Çin, bu konulardaki geleneksel duruşuna uygun olarak, ABD'nin yapay zekâ sektörüne yönelik kısıtlamalarına ve baskılarına da karşı çıktı. ABD ise, yapay zekâ sistemlerinin "güvenli, emniyetli ve güvenilir" olması gerektiğinin altını çizerken, özellikle Çin'i ilgilendiren risklere işaret ederek, yapay zekânın kötüye kullanılmasıyla ilgili endişeleri vurguladı, ancak daha fazla ayrıntıya girmedi. Kasım 2024'te Başkan Joe Biden ve Başkan Şi Cinping Peru'da tekrar bir araya geldiler. Yapay zekâ gündemlerindeydi ve her iki lider de "nükleer silahların kullanımına ilişkin kararda insan kontrolünün sürdürülmesi gerekliliğini" yinelediler.
"Sonuçlar" (Conclusions) bölümünde ise, SIPRI uzmanları, raporlarını toparlayarak, yapay zekâdaki gelişmelerin muazzam faydalar sağlayacak gibi görünse de, uluslararası barış ve güvenliğe yönelik tehditler yaratabileceği veya bu tehditleri şiddetlendirebileceği uyarısında bulunmaktadırlar. Nitekim Jules Palayer ve Laura Bruun'a göre, son yıllarda, devletler hem sivil, hem de askeri yapay zekâdan kaynaklanan bu karmaşık riskleri, yeni forumlar ve girişimler kurarak yönetme ihtiyacını giderek daha fazla kabul etmektedir. Bu doğrultuda, 2024 yılında yapay zekâ yönetimi, devletlerin devam eden girişimlerle etkileşimlerini derinleştirmesi ve yapay zekâyı barış ve güvenlik tartışmaları için merkezi bir konu olarak sağlamlaştırmasıyla uluslararası tartışmalarda kilit bir öncelik olmaya devam etmiştir. Örneğin, hem ikinci REAIM Zirvesi, hem de ikinci Yapay Zekâ Güvenliği Zirvesi 2024 yılında gerçekleşti. Ayrıca, BM Genel Kurulu, 79. oturumunda, askeri yapay zekâ ve yapay zekâ destekli ölümcül otomatik silah sistemleri (LAWS) konusunda önemli kararlar aldı. 2024 yılının, AB Yapay Zekâ Yasası gibi önemli bölgesel düzenleyici çabaların kabul edildiği yıl olarak da hatırlanması muhtemeldir. Bununla birlikte, birçok gelişmeden kaynaklanan büyük bir soru, çeşitli tartışmaların, girişimlerin ve kararların tamamlayıcı mı, yoksa rekabetçi süreçler mi olarak gelişeceğiyle ilgilidir. Çeşitli politika süreçlerinin sonuçları henüz görülmese de, 2024 yılında bu süreçlerde tartışılan yapay zekâ ile ilgili barış ve güvenlik konularının her zamankinden daha somut olduğu açıkça ortaya çıkmıştır.
Sonuç
Sonuç olarak, geleceği şekillendirecek en önemli oyun değiştirici teknolojilerden biri olan yapay zekâ ve bunun askeri alana yansıması olan otomatik silah sistemleri ve ölümcül otomatik silah sistemleri konusunda, son birkaç yılda ciddi hukuki düzenleme çabaları bulunmakta ve Birleşmiş Milletler (BM) de bu çabalara öncülük etmektedir. Buna karşın, devletler arası rekabetin son birkaç yılda çok öne çıkması nedeniyle, BM'nin prestiji, hatta bütçesi bile tehdit altındadır. Özellikle ABD yönetiminin bu konudaki tavrı, bu devletin sorumlu küresel güç imajına uygun değildir. Nitekim ABD, yapay zekâ konusunda da dünyada en ileri konumdaki 2 devletten -Çin ile birlikte- biridir. ABD, geçtiğimiz yılda (2024) Başkan Biden ile bu konuda bir kararname yayınlayarak gelişmelere yol göstermeye çalışmıştır. Ancak Trump yönetimi bu kararnameyi iptal etmiş ve ABD'yi bu konuda belirsiz bir konumda bırakmıştır. Bunun yanında, Avrupa Birliği (AB), teknolojik olarak ABD ve Çin'le henüz rekabet edecek durumda olmasa da, hukuki düzenleme ve kurumsallaşma yönünde bu doğrultuda doğru ve kararlı adımlar atmaktadır. Ayrıca Fransa Cumhurbaşkanı Emmanuel Macron öncülüğünde 2025'te Paris'te düzenlenen Zirve, Fransa'nın bu konuda uyandığını ve harekete geçtiğini göstermektedir. Fransa, bu alanda Çin'le ikili iş birliğine de önem vermekte ve ileri teknolojileri ve bu alandaki şirketleri ülkesine çekmeye çalışmaktadır. Bu alandaki öncü güç Çin ise, bu alanda hem üniversiteleri ve araştırma merkezleri, hem şirketleri, hem de yönetim bağlamında oldukça iyi bir konumdadır.
Prof. Dr. Ozan ÖRMECİ

Hiç yorum yok:
Yorum Gönder