Teknoloji dünyasının son gözdesi yapay zekâ alanındaki gelişmeler hızla devam ederken tartışmalar da alevlendi. Şimdi hükümetler bu yeni trendle ilgili önlemler almak için kıyasıya bir yarışın içine girdi.
Irkçı ya da cinsiyetçi tutum, sahte müstehcen içeriklerin üretimi gibi pek çok tehlikeyi de beraberinde getiren yapay zekâ araçları için hükümetler kolları sıvadı.
Ulusal ve uluslararası yönetim organlarının yapay zekâ araçlarını düzenlemek için attığı en son adımlar ise şu şekilde:
AVUSTRALYA
Avustralya hükümeti 17 Ocak’ta yapay zekâ risklerini azaltmak için bir danışma organı kuracağını ve teknoloji şirketlerinin yapay zekâ tarafından oluşturulan içerikleri etiketlemeye teşvik etmek de dahil olmak üzere bir dizi yönergeyi uygulamaya koymak için sektör kurumlarıyla birlikte çalışmayı planladığını söyledi.
BRİTANYA
Önde gelen yapay zekâ geliştiricileri, kasım ayında İngiltere’de düzenlenen ilk küresel Yapay Zekâ Güvenlik Zirvesi’nde, gelişen teknolojinin risklerini yönetmeye yardımcı olmak amacıyla yeni modellerini yayınlanmadan önce test etmek için hükümetlerle birlikte çalışmaya karar verdi.
Zirvede aralarında ABD ve Çin’in yanı sıra AB’nin de bulunduğu 25’ten fazla ülke, birlikte çalışmak ve gözetim konusunda ortak bir yaklaşım oluşturmak amacıyla “Bletchley Deklarasyonu”nu imzaladı.
İngiltere zirvede, gelişmiş yapay zekâ modellerini güvenli hale getirmeye yönelik araştırmaları destekleyecek iki süper bilgisayardan oluşan “Yapay Zeka Araştırma Kaynağı” için finansmanını üç katına çıkararak 300 milyon pound’a ulaşacağını söyledi.
ÇİN
Çin’in bilim ve teknolojiden sorumlu bakan yardımcısı Wu Zhaohui, kasım ayında Britanya’da düzenlenen Yapay Zekâ Güvenliği Zirvesi’nin açılış oturumunda Pekin’in uluslararası bir çerçeve oluşturmaya yardımcı olmak için yapay zekâ güvenliği konusunda iş birliğini artırmaya hazır olduğunu söyledi.
Çin, yapay zekâ modellerini eğitmek için kullanılmayan kaynakların kara listesini de içeren güvenlik gereksinimlerini ekim ayında yayınladı.
Ülke, ayrıca ağustos ayında hizmet sağlayıcıların yapay zekâ ürünlerini kitlesel pazara sunmadan önce güvenlik değerlendirmeleri sunmalarını ve izin almalarını gerektiren bir dizi geçici önlem de yayınladı.
AVRUPA BİRLİĞİ
AB milletvekilleri 13 Mart’ta, bankacılıkta, internete bağlı cihazlarda, akıllı evlerde ve arabalarda kullanılan bir teknolojiye dünyanın ilk mevzuatı olan AI kurallarına ilişkin geçici bir anlaşmayı onayladı.
AB ülkeleri aralık ayında, yapay zekâ kullanımını ve yapay zekâ sistemlerinin nasıl düzenleneceğini daha iyi kontrol etmeyi amaçlayan Yapay Zeka Yasası üzerinde siyasi bir anlaşmaya vardı.
FRANSA
Fransa’nın gizlilik gözlemcisi nisan ayında ChatGPT hakkındaki şikayetleri araştırdığını söyledi.
G7
G7 ülkeleri ekim ayında, gelişmiş yapay zekâ sistemleri geliştiren firmalar için dünya çapında güvenilir yapay zekâyı teşvik etmeyi amaçlayan 11 maddelik bir davranış kuralları üzerinde anlaşmaya vardı.
İTALYA
Üst düzey bir yetkili mayıs ayında yaptığı açıklamada, İtalya’nın veri koruma otoritesinin yapay zekâ platformlarını incelemeyi ve bu alanda uzmanlar işe almayı planladığını söyledi. ChatGPT, Mart 2023’te İtalya’da geçici olarak yasaklandı, ancak nisan ayında tekrar kullanıma sunuldu.
JAPONYA
Japonya’nın gizlilik gözlemcisi, OpenAI’yi insanların izni olmadan hassas verileri toplamaması konusunda uyardı.
POLONYA
Polonya Kişisel Verileri Koruma Ofisi eylül ayında, ChatGPT’nin AB veri koruma yasalarını ihlal ettiği yönündeki bir şikayet nedeniyle OpenAI’yi araştırdığını söyledi.
İSPANYA
İspanya’nın veri koruma kurumu nisan ayında ChatGPT’nin potansiyel veri ihlallerine ilişkin bir ön soruşturma başlattı.
BİRLEŞMİŞ MİLLETLER
BM Genel Sekreteri António Guterres ekim ayında, yapay zekâ ile ilgili sorunları ele almak üzere teknoloji şirketi yöneticileri, hükümet yetkilileri ve akademisyenlerden oluşan 39 üyeli bir danışma organının kurulduğunu duyurdu.
AMERİKA BİRLEŞİK DEVLETLERİ
ABD, İngiltere ve birçok ülke kasım ayında yapay zekâya ilişkin sistemlerin kötüye kullanılmasına karşı izlenmesi, verilerin kurcalanmaya karşı korunması ve yazılım tedarikçilerinin incelenmesi gibi genel öneriler içeren 20 sayfalık bağlayıcı olmayan bir anlaşmayı açıkladı.
Ticaret Bakanı Gina Raimondo, 1 Kasım’da Britanya’daki Yapay Zeka Güvenlik Zirvesi sırasında yaptığı açıklamada, ABD’nin yapay zekâ modellerinin bilinen ve ortaya çıkan risklerini değerlendirmek için bir yapay zekâ güvenlik enstitüsü kuracağını söyledi.
Başkan Joe Biden, 30 Ekim’de ABD ulusal güvenliği, ekonomisi, kamu sağlığı veya güvenliği açısından risk oluşturan yapay zekâ sistemleri geliştiricilerinin güvenlik testlerinin sonuçlarını hükümetle paylaşmalarını zorunlu kılan bir idari emir yayınladı.
Son olarak da ABD İç Güvenlik Bakanlığı (DHS) AB’nin yapay zekâ yasasını kabul etmesinin ardından bu hafta yaptığı açıklamada 2024 ‘yapay zekâ yol haritasını’ duyurdu. ABD, yapay zekâyı güvenlik, uyuşturucu madde ile savaş, düzensiz göç ve çocuk istismarını kapsayan üç yeni pilot projede kullanacağını açıkladı.
DHS, yapay zekânın kullanımına ilişkin yeni bir yol haritası çizdiklerini belirterek kullanımların üç yeni pilot proje ile belirli alanlarda faaliyet göstereceğine dikkat çekti.
Farklı kamu kurumlarında kullanılması ön görülen yapay zekâ sistemlerinin ilk olarak, çocuk istismarı ve uyuşturucu madde soruşturmalarında, doğal afet ve acil durumlarda iletişimin sağlanmasında ve göçmenlik hizmetlerinde kullanılacağı belirtildi. DHS yapay zekâ ile geliştirmeyi hedeflediği uygulamaları 2023’te Bakanlık bünyesinde kurulan ‘Yapay Zekâ Görev Gücü’ koordinatörlüğü ile gerçekleştireceğini ifade etti.
VATİKAN
Papa Francis, aralık ayında yapay zekâyı düzenlemek için yasal olarak bağlayıcı bir uluslararası anlaşma yapılması çağrısında bulunarak, algoritmaların insani değerlerin yerini almasına izin verilmemesi gerektiğini söyledi ve insanlığı tehdit eden bir “teknolojik diktatörlüğe” karşı uyarıda bulundu.