Yapay zekâ araştırmalarına ara vermek gerekiyor mu?
Aralarında Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak’ın da bulunduğu 1.000’den fazla teknoloji ve araştırma uzmanı, açık bir mektup kaleme alarak yapay zekânın barındırdığı “büyük riskler” hakkında uyarılarda bulundu. Uzmanlar, geliştirme çalışmalarına en az altı ay ara verilmesini ve güvenlik standartlarının oluşturulmasını istiyor. Yorumcular, teknolojik ilerlemenin durdurulup durdurulamayacağını ve buna gerçekten ihtiyaç olup olmadığını tartışıyor.
Çok fazla ilgi, çok fazla aktör
Uzmanların ara verme çağrısını uygulamaya geçirmek zor, diyor Der Standard:
“Yaşanan patlamanın ardında yalnızca göz önündeki büyük ABD’li şirketler değil, pek çok küçük aktör de var. Görüntü alanında popüler bir yapay zekâ uygulaması olan Midjourney, yalnızca on bir tam zamanlı çalışan tarafından işletiliyor. Sektörde yeni aktörlerin ezber bozan teknolojiler konusunda araştırmalar yapmalarını ve yeterince uzun süreler radarda kalmalarını bekleyebiliriz.”
Yasaklamak çözüm değil
İtalya veri koruma kurumu, yapay zekâ tabanlı sohbet robotu ChatGPT'yi geçici olarak yasakladı. La Repubblica, bunun tamamen yanlış olduğu görüşünde:
“Çin, İran, Rusya ve Hong Kong gibi, kendileri teknolojinin askeri ve baskı amaçlı kullanımı üzerinde gizlice çalışmalar yürütürken, yapay zekâ araştırmalarını yasaklayan nahoş ülkeler kulübüne katıldık. ... Avrupa, uzun süredir bilişim hukuku alanında öncü pozisyonunda bulunuyor. ... ABD ve sosyal platformlar, algoritmalar ve hukukla alakalı hususlarda artık Brüksel'in rehberliğine başvuruyor. Ancak, düzenleme getirmek yalnızca yasak koymak değil, argümanlar geliştirmek anlamına da geliyor ve araştırmaların sonlandırılmayıp korunmasını gerektiriyor.”
Kurgu yapay zekâ içerikleri hakikatin altını oyuyor
Maszol, yalan haberlerin patlama yapmasından endişe ediyor:
“Yalan haberlerin sebep olduğu karma hakikat, yapay zekâ kullanımı arttıkça daha da büyüyebilir. Çünkü, yalan haberler formüle etmeye saatler ayırmak yerine yapay zekâya birkaç soru sorarak kurgusal hikâyeler uydurmak mümkün. Metin tabanlı yalan haberlerden daha da büyük endişe kaynağı, Midjourney gibi yazılı talimatlar doğrultusunda görüntüler üreten yapay zekânın ulaştığı popülarite. ... Benzer şekilde videolar oluşturabilen yapay zekâ uygulamalarının da ortaya çıkacağını unutmamak gerekir.”
Yanlışları artırmayalım
Irish Independent, yapay zekâya yönelik yeni bir yaklaşım geliştirilmesini istiyor:
“Makine öğrenimi, iyisiyle kötüsüyle geleceğimizi radikal bir şekilde baştan şekillendirecek. Tıpkı bir nesil önce internetin yaptığı gibi. Fakat bu değişiklikler, büyük bir ihtimalle internette gerçekleşen ısınma egzersizleri gibi görülecek. Yapay zekâ, sivil özgürlükleri yok sayarak ve ırkçılığı, sınıf ayrılıklarını ve eşitsizlikleri pekiştirerek, bütün insani yanlışlarımızı artırma ve yayma becerisine sahip. ... Yapay zekâ sistemlerinin hangi veri setleri üzerinde çalıştırıldığı ve yapay zekâya karar hesaplamaları için hangi değerlerin yüklendiği hususunda daha fazla şeffaflık sağlayan yeni kurallar ve araçlar geliştirmenin vakti geldi.”
Denetim organlarına ihtiyaç var
Ekonomist Julien Serre, Les Echos'da yapay zekâya yaklaşımın derhal iyileştirilmesi gerektiğini söylüyor:
“Zaman kaybetmeksizin yeni kurumlar tesis edilmesini teşvik etmeliyiz. Bu kurumların, tüm sosyal ağları kaplayan ve demokrasimizi tehlikeye atan korkunç dezenformasyon selinin üstesinden gelecek yetkili ve meşru birimlerden oluşması gerekiyor. Avrupa bu konuda öncü bir rol oynayabilir. ... Önceliğimiz, rekabetçi olduğu kadar sorumluluk da taşıyan bir teknolojiyi desteklemek olmalı. Avrupa, günden güne daha güçlü hale gelen dijital araçları geliştirme ve kullanma yarışının kontrolden çıkmasını önlemek zorunda.”
Ne inandırıcı ne de gerçekçi
La Stampa'ya göre hatalar biraz geç anlaşıldı:
“Kuşağımızın en parlak zihinleri birdenbire meseleye uyandılar; muhtemelen [sosyal medyada dolaşan] beyaz şişme montlu Papa görselini gerçek sandılar ve kendilerine, benim gibi bir zekâ bile bunlara kanıyorsa, endişelenmeye başlamanın vakti gelmiş midir, diye sordular. Asıl mesele şu: İlerlemenin önüne geçilebilir mi? Endüstriyel gelişmeye engel olunabileceği fikri inandırıcı mı? ... Ahlaki şüpheler, iş olup bittikten sonra değil, önce dile getirilmeli: Nükleer bir silahı kurcalayıp, elinizden düşürünce de 'ah, pardon' diyemezsiniz.”
Cesaretimizi kaybetmeyelim
L’Opinion’a göre, şu an asıl ihtiyaç duyulan şey ara vermek değil:
“Yaşanan ekonomik, yasal ve jeopolitik zorluklar karşısında, ihtiyaç duyulan şeyin ara vermekten ziyade ivme kazanmak olduğu ortada. İllaki teknolojik gelişmede değil -kurumlar planlamaya daha fazla süreler ayırmaktansa sırtlarını duvara yaslayarak verimliliklerini artırma eğiliminde olsalar bile- sektörün yapılanması konusunda da. Evet, üretken yapay zekânın sunduğu imkânlar yeni bir alan sunuyor. Ancak, bu yeni Vahşi Batı öncülerinin karşısına engeller çıkarmak yerine, bırakalım rekabet kendi yolunu bulsun ve düzenleyici taraflar bu yolun sınırlarını çizsin. Yapay zekâ meselesinde cesaretimizi kaybetmemeliyiz.”
Asıl tehlike insan
Delo için yazan bilişim uzmanı Saša Prešern, dijital devrimin daha güzel bir yaşama katkıda bulunabileceğini yazıyor:
“İnsanlığın varlığına yönelik yegâne tehdit insandır, teknoloji değil. Belli ki insanlar bunu ‘yapamazken’, siyasetçiler yapay zekâ sayesinde savaşları durdurabileceklerini ya da önleyebileceklerini ne zaman idrak edecekler? ... Siyasetçiler birbirlerini dinlemiyor. Yanlışları ve provokasyonları bütün dünyayı etkiliyor. Yapay zekâ, veri ve aklın sunacağı yardımların, kendilerine ne denli faydası dokunacağını bilmiyorlar. ... Daha yeni tanışmış olsak da dostum ChatGPT’yi militan siyasetçilerden daha akıllı buluyorum.”
Çin kabul etmeyecektir
Handelsblatt öneriyi manasız buluyor:
“Yaşanan jeopolitik gerilimlere bakılacak olursa, Çin’in buna dahil olması imkânsıza yakın. Bu kilit teknolojide bir numara olmak, Halk Cumhuriyeti’nin beyan etmiş olduğu bir hedef. Ülke, yazılan araştırma makalelerinin sayısı bakımından şimdiden ABD’nin ardından açık ara ikinci sırada geliyor ve hatta ‘bilgisayarla görü’ gibi kimi alanlarda lider. Yalnızca kısmen uyulacak bir erteleme olması durumunda, Batılı değil, daha ziyade Çinli bir ‘Yapay Genel Zekâ’ (AGI) oluşması riski doğar.”