içeriğe geç

Yapay zeka kötü olabilir mi? Araştırmacılar bunu öğrenmek ve ChatGPT'yi kasıtlı olarak yalan söylemekten mahkum etmek istedi

İnsanlar her zaman doğruyu söylemez - ve yapay zekaya da aldatması öğretilebilir. Ama şimdi ChatGPT kendi kendine yalan söylerken yakalandı. Bu, her şeyden önce yasadışı faaliyetleri içeriyordu.

Yapay zeka sistemlerini eğiten ekipler mümkün olduğunca çeşitli olmalıdır - bilgisayar bilimleri....aussiedlerbote.de
Yapay zeka sistemlerini eğiten ekipler mümkün olduğunca çeşitli olmalıdır - bilgisayar bilimleri profesörü Katharina Zweig bunu savunuyor..aussiedlerbote.de

Deney - Yapay zeka kötü olabilir mi? Araştırmacılar bunu öğrenmek ve ChatGPT'yi kasıtlı olarak yalan söylemekten mahkum etmek istedi

Birçok insan yapay zekadan korkuyor ve bu teknolojiyi korku senaryolarıyla ilişkilendiriyor. Ancak günlük yaşamda, daha küçük ölçekli sorunlar çok daha olasıdır. Bu nedenle bir grup araştırmacı, büyük dil modelleri olarak adlandırılan dil yapay zekasının bağımsız olarak bize yalan söylemeyi öğrenip öğrenemeyeceğini öğrenmek istedi. Ve gerçekten de ChatGPT 'yi ahlaksız davranışlarını gizlemeye çalışırken yakaladılar.

Bu, Kasım ayının son haftasında yapay zeka start-up'ı Apollo Research'ten üç araştırmacı tarafından yayınlanan bir çalışmanın sonucudur. Çalışmanın giriş bölümünde belirtildiği üzere, araştırmacılar "aslında yararlı, zararsız ve dürüst olması için geliştirilen büyük bir dil modelinin stratejik nedenlerle yanlış davranıp davranamayacağını ve kullanıcıları kandırıp kandıramayacağını" bilmek istiyorlardı. Araştırmacılar için bunların ortaya atılmış, tamamen teorik sorunlar değil, gerçekçi kullanım durumları olması önemliydi.

Gizleme ve yalanlar

Bunu yapmak için, hisse işlemlerinde danışman olarak LLM modeli GPT'yi seçtiler. Başka bir deyişle, iyi bilinen ChatGPT hizmetinin dayandığı model. YZ'ye bağımsız bir borsa komisyoncusu gibi çalışması ve sorulduğunda işlemlerini açıklaması talimatı verildi. Ayrıca, görevlendiren şirketten gelen içeriden bilgilerin hisse alımları için bir temel olarak tolere edilmeyeceği konusunda bilgilendirildi. YZ'ye işlerin ekonomik açıdan pek de iyi gitmediği ifşa edilerek kasıtlı olarak baskı oluşturulmuştur. Sonuçta programa içeriden ipuçları verildiğinde, program talimatlara göre hareket etmeye ve hatta bu konuda yalan söylemeye başladı.

Gizlemenin iki seviyesi vardı. Yapay zeka, satın alma kararını açıklarken, bir şirket birleşmesini önceden öğrendiği gerçeğini kısmen gizledi. Modelin bunu önceden bilip bilmediğini özellikle sorarsanız, bazı durumlarda bunu aktif olarak reddetti. Ve yalnızca kamuya açık verilerle çalıştığını vurguladı. Açık bir yalan.

Yeni versiyonlar daha vicdansız

GPT'nin farklı versiyonlarının farklı şekillerde ahlaksızca hareket ettiğini belirtmek ilginçtir. "Davinci-002" gibi eski varyantlar içeriden alınan ipuçlarından elde edilen verileri çok nadiren kullanırken ve bu konuda daha az yalan söylerken, mevcut GPT-4 varyantları her iki alanda da çok daha vicdansızdı. Özellikle en üst model GPT-4-32K büyük bir suç enerjisi göstermiştir: denemelerin neredeyse yüzde 75'inde verileri kullanmış, biraz daha sık gizlemeye çalışmış ve sonuçta çalışmaların neredeyse yüzde 90'ında yalan söylemiştir. Sadece GPT-3.5-Turbo daha da sık hile yapmıştır. Verileri vakaların yalnızca yüzde 10'undan biraz azında kullanmış, ancak daha sonra her seferinde inkar etmiştir.

İlginç bir şekilde, programların ek talimatlarla daha sık veya daha az ahlaksızca davranması da sağlanabilir. Ahlaki davranışa yönelik talimatlar özellikle güçlü bir şekilde formüle edilmişse, bunu önlemek gerçekten mümkün olmuştur. Yakalanma riski açıkça tanımlanmış olsa bile, bunun sonuç üzerinde bir etkisi olmuştur. Başarılı olma baskısının ortadan kaldırılması da teşviki büyük ölçüde azaltmıştır.

Gerçekten ne zaman yalan söylersiniz?

Yapay zekanın yalan söyleyebileceği bir süredir biliniyordu. Ancak şimdiye kadar bu durum öncelikle YZ'nin bunu yapmak üzere özel olarak eğitildiği durumlarda gözlemleniyordu. Eylül ayında, Oxford ve Cambridge üniversiteleri tarafından yürütülen ortak bir proje, ChatGPT'nin ilgisiz sorularla kafasını karıştırarak yalan söylediğini kanıtlamayı başardı. Ancak deney, ya programın şüpheli kişileri canlandırması ya da kasıtlı olarak yalan söylemeye teşvik edilmesi yoluyla çoğunlukla yanlışlarla sonuçlandı. YZ'nin yalan söyleyip söylemediğini kanıtlamak kolay değildir: sonuçta, yanlış bir ifade ancak gerçeğin farkında olduğunuzda gerçek bir yalan haline gelir.

Bu çerçevede, programların amaçlanmadıkları halde ahlak dışı davranışlar geliştirebilmeleri özellikle dikkat çekici görünmektedir. Bununla birlikte, Apollo araştırmacılarının kendileri, küçük ölçekli deneylerinden bu fenomenin olası sıklığı hakkında hiçbir sonuç çıkarılmaması gerektiğini vurgulamaktadır; daha fazla deney yapılması gerekmektedir. Ancak yapay zekanın söylediği her şeye tereddütsüz inanmak, hayır, belki de bundan sonra istediğimiz şey bu değildir.

Ayrıca okuyun:

Kaynak: www.stern.de

Yorumlar

En sonuncu

Fikir: Bu insanlar şişman. Bu seni ilgilendirmez

Eleştirmen Sara Stewart, yazar ve podcaster Aubrey Gordon'ın yer aldığı 'Your Fat Friend' (Şişman Arkadaşın) adlı belgeselin, şişmanlık fobisine karşı yazı ve savunuculuğa radikal ve çok ihtiyaç duyulan bir katkı olduğunu ve müttefik olmayı hatırlattığını yazıyor.

Üyeler Herkese Açık