PEGGA Yazılım ve Web Hizmetleri olarak sizleri dijital çözümlere ulaşmanıza öncülük ediyoruz.

İletişim

Location

Şekerhane mah. Ali İmam sk. No:37 PEGGA Yazılım, Alanya/Antalya

Yapay zeka dünyası hızla gelişmeye devam ediyor. ChatGPT gibi üretken yapay zeka sohbet robotlarının başarısını görüyoruz ve pek çok şirket uygulamalarına ve programlarına yapay zekayı dahil etmek için çalışıyor. Bu arada yapay zeka tehdidi hala büyük bir sorun olmaya devam ederken, araştırmacılar yapay zekanın bize ne kadar kolay yalan söylediği ve bunun ileride ne anlama gelebileceği konusunda bazı ilginç endişeleri dile getirdi.

ChatGPT ve diğer yapay zeka sistemlerinin kullanımını güçleştiren şeylerden biri, bilgiyi “halüsinasyon” olarak adlandırılan anında uydurma eğilimleri. Bu, yapay zekanın çalışma şeklindeki bir eksiklik ve araştırmacılar yapay zekanın bizi daha da fazla kandırmasına izin verecek şekilde genişletilebileceğinden endişe ediyor.

Peki yapay zeka bize gerçekten yalan söyleyebilir mi? Bu ilginç bir soru ve bazı araştırmacılar bunu yanıtlayabileceklerine inanıyor. Araştırmacılara göre Meta’nın CICERO yapay zekası, yapay zekanın ne kadar aldatıcı olabileceğinin en rahatsız edici örneklerinden biri. Bu model Diplomacy oynamak için tasarlandı ve Meta “büyük ölçüde dürüst ve yardımcı” olmak için tasarlandığını söylüyor.

Ancak CICERO deneyinden elde edilen verilere bakıldığında, araştırmacılar CICERO’nun bir yalan makinesi olduğunu söylüyorlar. Hatta CICERO, bir insan oyuncuyla birlikte çalışarak başka bir insan oyuncuyu kandırıp kendisini istilaya açık hale getirecek şekilde kandırmayı önceden planlayacak kadar ileri gitti.

Bunu, Alman oyuncuyla komplo kurarak ve ardından İngiliz oyuncuyla birlikte çalışarak onların Kuzey Denizi’nde bir açıklık bırakmasını sağlayarak yaptı. Bunu Almanya’nın oyuncusuyla komplo kurarak ve ardından İngiltere’nin oyuncusuyla çalışarak Kuzey Denizi’nde bir açıklık bırakmalarını sağlayarak yaptı. Yapay zekanın oyuncuları kandırıp başarıya ulaşmak için nasıl yalan söylediğini ve onlara karşı nasıl çalıştığının kanıtını yukarıda görebilirsiniz. Bu ilginç bir kanıt ve araştırmacıların CICERO yapay zekasından kaydettiği birçok örnekten sadece biri.

Buradaki risk, bunun birkaç farklı şekilde kötüye kullanılabilecek olmasından kaynaklanıyor. Araştırmacılar hazırladıkları raporda potansiyel riskin “yalnızca kötü niyetli kişilerin hayal gücü ve teknik bilgi birikimi ile sınırlı olduğunu” belirtiyor. Bu davranışın gelecekte nereye varabileceğini görmek ilginç olabilir, özellikle de bu davranışı öğrenmek açık bir kandırma niyeti gerektirmiyorsa…

Yorum Yap

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir