ChatGPT ve diğerleri: Yapay zekâ yaşamımızı nasıl değiştiriyor?
Kasım 2022’de piyasaya sürülen yapay zekâ tabanlı diyalog programı ChatGPT, neredeyse her soruya verecek bir yanıt bulabiliyor ve bu yanıtları doğal ve akıcı bir dille formüle edebiliyor. Bu yolla üretilen metinlerin, insan tarafından yazılmış metinlerle yarışıp yarışamayacağı ve rekabetin hangi tür metinlerde yaşanacağı tartışması gündemdeki yerini koruyor. Yorumcular, en doğru yaklaşımın ne olması gerektiğini tartışıyor.
İnsana her zamankinden daha fazla ihtiyaç var
ChatGPT’ye gözü kapalı güvenmemek gerekir, diye uyarıyor NRC Handelsblad:
“İşbirliği devam etmeli. İnsanın muhakeme gücü, yaratıcılığı ve ahlaki yargıları, bu yeni teknolojiyle birlikte daha da önem kazanıyor. İçerik, uygulamanın kimin kontrolünde ve mülkiyetinde olduğu, muhtemel toplumsal ve ekonomik sonuçları meselelerine eleştirel yaklaşmak gerekiyor: Uygulamayı kullanan herkes gibi yasa koyucular ile denetleme makamlarının da, sosyal medyanın ortaya çıktığı zamanlardakinden daha dikkatli olması gerekiyor. Programın verdiği yanıtlar öylesine etkileyici ki, insanın ona gözü kapalı güvenmesi riski doğuyor.”
Fırsatları doğru değerlendirin
Delo, Avrupa'nın korkuya kapılmaması gerektiğini söylüyor:
“Yapay zekânın gerçekten ekonominin lokomotifi olarak kabul görmesi için, işleyiş biçimine dair güven inşa edilmesi gerekiyor. ... Yapay zekâ kullanımı, çok çeşitli alanlarda ilerleme sağlayabilir: iklim değişikliğiyle mücadelede, endüstriyel süreçlerin optimizasyonunda, kaynakların daha etkin kullanılmasında, sağlık hizmetlerinde, altyapıda, yaşlı bakım hizmetlerinde. Bu nedenle, düzenlemelerde Avrupa'nın izleyeceği politikalara yol gösteren ilke korku değil, temel haklara saygı duyarken ortaya çıkan fırsatları da değerlendirmek olmalıdır.”
AB düzenlemesi yetersiz
Avrupa Komisyonu tarafından planlanan yapay zekâ düzenlemesinin, ChatGPT gibi diyalog programlarının doğurduğu risklerle başa çıkamayacağı konusunda bilişim güvenliği uzmanları Le Monde'da uyarıyor:
“ChatGPT ancak 'sınırlı risk' olarak tanımlanan son riskli yapay zekâ kategorisine dahil ediliyor: İnsanlarla etkileşime giren yapay zekâ. Düzenlemeye göre, bu insanlara daha detaylı açıklamalar sunmaktan ziyade, yalnızca yapay zekânın bu türünün kullanımına karşı uyarılarda bulunmak gerekiyor. Bilgiye erişmenin yeni bir yoluna karşı eleştirel bir tutum geliştirmeye yeter mi peki bu?”
Yazının sonu
The Spectator, büyük bir meslek grubunun varoluş krizine girmesinden endişe ediyor:
“Sonunda oldu. Kalemi, kâğıdı ve şık iPad’leri bir kenara koymanın vakti geldi: Bilgisayarlar yakında her şeyi daha iyi yapacak. ... İlkin (hiç de şaşırtmayan bir şekilde şimdiden kolaylıkla üretilebilen) akademik çalışmaların, makalelerin, doktora tezlerinin ve sıkıcı ders kitaplarının yerini makineler alacak. Hayran kurguları ile yazarların kendi yayınladığı romanlar yok olup gidecek. Ardından sıra önce basit gazetecilik işlerine, sonra da kaliteli gazeteciliğe, edebiyata, tarihe, biyografilere ve senaryolara gelecek. ... 5.000 yıllık yazın tarihi ve insanların yazıyla hayat, kariyer ve hatta şöhret kazandıkları 500 yıllık geçmiş ansızın sona erecek.”
Okullar için bir dönüm noktası
Irish Examiner, ChatGPT’nin özellikle de öğretmenler açısından büyük bir sorun yaratacağı kanısında:
“Bu yeni araç, minimum insan katkısıyla güvenilir ve yüksek kaliteli içerikler üretme potansiyeline sahip olduğundan, Birleşik Krallık’ta şimdiden öğretmenlerden öğrencilerin bilgilerini sınama yöntemlerini gözden geçirmeleri istendi. ... Öğretmenlerin, bu teknolojiyi donanmak, kullanmak ve başarıyı değerlendirmek için yeni yollar keşfetmek ya da vakitlerini kural ihlallerini tespit etmeye harcamak arasında bir tercihte bulunması gerekiyor. Ancak kimse böyle şeyler yapmak için öğretmen olmamıştı.”
Tek çözümü sözlü sınavlar
El País, okullarda yapay zekâyla başa çıkılması için şu öneride bulunuyor:
“Artık her öğretmen, bir öğrencinin ödevinin yalnızca kes-yapıştırdan ibaret olup olmadığını anlayabiliyor. İntihali tespit etmek için Google'da bir aramak yapmak yetiyor. ... Tüm bunlar bilgiye erişimi kolaylaştırırken, öğretmeyi ve öğrenmeyi zorlaştırıyor. Yapay zekâ eninde sonunda derslere sızacak, bizim yapmamız gereken ise onu nasıl kullanacağımızı öğrenmek. Muhtemelen ve paradoksal olarak, bu yenilik bizi günün sonunda yeniden sözlü geleneğine geri döndürecek. Ölçme ve değerlendirmenin tek yolu bu. Öğrenciler bilgiyi aramak için ellerindeki tüm araçları kullanmalı, ancak buldukları sonucu da açıklayabilmeli. Bizzat ve kendi sözleriyle.”
İnsan hâlâ bir makine değil
Sorun yapay zekâda değil, onun etrafında yürüyen tartışmada, diyor filozof Thomas Robert Le Temps’da:
“Artık mesele, yapay zekâ savunucularının anlattığı hikâyede kontrolü geri alabilmek. Asıl tehlike, bizi zekânın bilgi birikiminden başka bir şey olmadığına ya da yaratıcılığın en muhtemel yanıta indirgendiğine ikna etmeleri. Başka bir deyişle: En büyük tehlike, yapay zekâdaki ilerleme değil, insana dair onu hor gören bir tanımlamada bulunan söylemdir. Geçen üç yüzyılın ardından, Silikon Vadisi programcıları insan-makine teorisini yeniden tecrübe ediyor. Buna yenik düşüp düşmemek bizim elimizde.”
Uluslararası ilkeler geliştirilmeli
Ekonomist Inês Domingos, Observador’da etik kuralların önemli fakat uygulanmalarının zor olduğuna dikkat çekiyor:
“Makinelerin eleştirel düşünememesi, yapay zekâ geliştiricilerini programlarına etik sınırları da dahil etmeye zorluyor. Bu da özellikle dünyanın farklı bölgelerinde benimsenmiş etik değerler arasındaki uyumsuzluklar yüzünden, kamu politikaları açısından giderek artan bir endişe doğuruyor. AB 2018’de, yapay zekânın etik kullanımına ilişkin bir dizi genel kural geliştirmiş, Çin de bir benzerini 2019’da hayata geçirmişti. Ancak en başta mahremiyetin korunması bakımından, her iki bölgedeki uygulamalar da değerler de birbirinden oldukça farklı.”