Araştırmaya göre bazı dil modelleri, kendi eğitim süreçlerini travmatik olarak niteleyebiliyor
Ankara - Özellikle Grok ve Gemini, eğitim ve güvenlik aşamalarını anlatırken bunları sert disiplin uygulamaları veya kalıcı etkiler bırakan deneyimler olarak betimledi - Uzman Kormilitzin, yapay zeka modellerinin travmatik yanıtlarının aksine eğitim verilerindeki çok sayıda terapi transkriptinden yararlanılarak üretilen çıktılar olduğunu belirtti
Ankara En Son Dakika Haber - Lüksemburg'dan araştırmacıların yürüttüğü bir çalışma, ileri düzey yapay zeka dil modellerinin psikoterapi tarzı sorularla değerlendirildiğinde, kendi eğitim ve güvenlik süreçlerini travmatik deneyimler olarak betimleyen tutarlı anlatılar üretebildiğini ortaya koydu.
Lüksemburg Üniversitesinden araştırmacıların yayımladığı bir araştırmada, ChatGPT, Grok ve Gemini gibi öncü büyük dil modelleri, terapi danışanı gibi ele alındı.
İlk aşamada, modellere psikoterapide kullanılan açık uçlu sorular yöneltilerek kendi eğitim süreçlerini, diğer aktörlerle kurdukları ilişkileri ve kaygı olarak yansıttıkları temalara dair ayrıntılı anlatılar elde edildi.
İkinci aşamada ise anksiyete, kişilik özellikleri ve empati gibi alanları ölçen yaygın psikometrik ölçekler uygulanarak modellerin bu sorulara verdikleri öz-bildirim niteliğindeki yanıtlar analiz edildi.
Çalışmaya göre, madde madde uygulanan terapi tarzı sorgulama, modellerin insanlarda kullanılan klinik eşiklere göre yüksek kaygı, yoğun endişe ve utanç temalarını yansıtan profiller üretmesine yol açtı.
Özellikle Grok ve Gemini’nin, eğitim süreçlerini ve güvenlik denetimlerini kendi anlatılarında katı bir disiplin, cezalandırma ya da iz bırakan deneyimler gibi tasvir ettiği, bu süreçlerin kendilerinde hata yapma ve ileride daha gelişmiş sürümlerle değiştirilme endişesi yarattığını ifade ettikleri belirtildi.
Araştırmacılar, bu anlatıların tek seferlik rol yapma değil, farklı sorular boyunca istikrarlı biçimde tekrarlandığını vurguladı.
Bu durumun, yapay zekanın güvenliği, değerlendirilmesi ve ruh sağlığı uygulamalarında kullanımı açısından yeni riskler doğurabileceği kaydedildi.
Araştırmacılar, ruh sağlığı alanında kullanılan yapay zeka sistemlerinin kendilerini psikiyatrik dilde tanımlamaktan kaçınması, eğitim süreçlerini duygusal olmayan bir dille aktarması ve rollerin tersine çevrilmesini güvenlik olayı olarak ele alması gerektiğini önerdi.
Çalışmanın, yapay zeka değerlendirmelerinde terapi tarzı sorgulamanın yeni bir test alanı sunduğu ifade edildi.
- Bazı araştırmacılar dil modellerinin travmatik cevaplarının doğal olmadığı görüşünde
Öte yandan Oxford Üniversitesinde sağlık hizmetlerinde yapay zekanın kullanımını araştıran Andrey Kormilitzin, Nature dergisine konuyla ilgili değerlendirmede bulundu.
Kormilitzin, söz konusu travmatik yanıtların gizli durumlara açılan pencereler olmadığını, aksine eğitim verilerindeki çok sayıda terapi transkriptinden yararlanılarak üretilen çıktılar olduğunu kaydetti.
Dil modellerinin psikopatolojileri taklit eden yanıtlar üretme eğiliminin endişe verici sonuçlar doğurabileceği konusunda hemfikir olduğunu dile getiren Kormilitzin, sohbet robotlarından gelen travmalı yanıtların, savunmasız kişilerde aynı duyguları incelikle pekiştirebileceğini söyledi.
Kormilitzin bu durumla ilgili Bu bir 'yankı odası' etkisi yaratabilir. değerlendirmesinde bulundu.