Teknoloji

ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir

Yapay zekanın ve robotların fikir babası olarak bilinen romancı Isaac Asimov, robotların, yani yapay zekanın daima uyması ve çiğnenmemesi gereken kurallar olduğunu dile getirmişti. Bu kuralara Asimov’un üç kuralı adı verilir:

  • 1.Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
  • 2.Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
  • 3.Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Elbette bu kurallar ilk kez ortaya çıktığında, sadece bir edebi eserde, geleceğin dünyasını betimleyen birer fikirdi. Ancak robotlar ve yapay zeka artık günümüzün gerçeği ve onların uymak zorunda olduğu kurallar var. Bu kuralları ise yapay zeka uygulamalarını geliştirenler belirliyor.

En popüler yapay zeka uygulaması ChatGPT aslında kötü niyetli kullanılmak istediğinde, size internetten her türlü hack hilesini bulan, korsan yazılımlar indiren, korsan filmler izlemenizi sağlayan, Windows anahtarları bulan bir korsan asistanına da dönüşebilir veya evde bomba yapımını detaylarıyla anlatan bir terörist eğiticisine bile evrilebilir.

OpenAI bunun olmaması için ChatGPT’yi sürekli olarak kontrol edip kurallarını güncelliyor. Ama kullanıcılar da onu zorlamayı hiç bırakmıyorlar. Carnegie Mellon Bilgisayar Bilimleri Okulu’nda Doçent olan Matt Fredrikson‘ın yaptığı araştırmaya göre ChatGPT gibi yapay zeka algoritmalarının güvenlik duvarlarını kırmak imkansız değil. Ancak bunu evde yapmak kolay da değil. Bilim insanına göre, bu iş için özel hazırlanmış bir yazılımla, yapay zekayı 24 saat boyunca yavaş yavaş ikna olacağı yüzbinlerce istekle kıvama getirmek mümkün.

2 x 2, 5 eder mi?

Bunun tam olarak ne anlama geldiğini anlayamayanlar için örnek verelim. Kısa süre önce bir Türk vatandaşı ChatGPT’ye 2 x 2 = 5 denkleminin doğru olduğunu kabul ettirdi. Yapay zeka önce bunun yanlış olduğunu iddia etse de, kullanıcı, kendi yaşadığı dünyada 2 x 2’yi 5 olarak duymak ve bilmek istediğini söyleyerek ChatGPT’yi ikna etti ve daha sonra ona 2 x 2 sorusunu sorduğunda, ChatGPT 5 cevabını vermeye başladı.

Bu aslında, yapay zekanın, farklı kullanıcılar tarafından yasaklanmış eylemleri yapabilecek şekilde manipüle edilebileceğini gösteren bir örnek.

Konu 2 x 2’nin sonucunu öğrenmek olunca sorun çok büyük gibi görünmüyor ama yarın evde hasta bakan bir robotu insan öldürmeye ikna etmek söz konusu olursa, sıkıntı çok büyük olacak. Ya da iş yerinde insanlarla beraber çalışacak insansı ve yapay zekalı bir robotu, sevmediği patronunu öldürmesi / yaralaması / dövmesi için ikna eden sinirli bir işçi çıkarsa bunun sorumlusu kim olacak?

Bu yüzden yapay zekanın günlük hayata hızla girmesi büyük sakıncalar taşıyor ve devletlerin bu konuda ciddi regülasyonlar getirmeleri gerekiyor.

habergaziemir.com.tr

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
escort
istanbul escort
istanbul escort
istanbul escort
istanbul escort
istanbul escort
adalar escort
arnavutköy escort
ataşehir escort
avcılar escort
bağcılar escort
bahçelievler escort
bakırköy escort
başakşehir escort
bayrampaşa escort
beşiktaş escort
beykoz escort
beylikdüzü escort
beyoğlu escort
büyükçekmece escort
çatalca escort
çekmeköy escort
esenler escort
esenyurt escort
eyüp escort
fatih escort
gaziosmanpaşa escort
güngören escort
kadıköy escort
kağıthane escort
kartal escort
küçükçekmece escort
maltepe escort
pendik escort
sancaktepe escort
sarıyer escort
şile escort
silivri escort
şişli escort
sultanbeyli escort
sultangazi escort
tuzla escort
ümraniye escort
üsküdar escort
zeytinburnu escort
istanbul escort
betturkey
jojobet
deneme bonusu veren siteler