e-BİLGİ, e-HABER

Yapay Zekâ Korkusu Abartılıyor Olabilir

yapay-zeka-korkusu-abartiliyor-olabilir

"Sonuçlarımız Yapay Zekânın Bir Tehdit Olmadığı Anlamına Gelmiyor...."

12:08:32

Yeni Araştırma Yapay zekânın Varoluşsal Bir Tehdit Oluşturmadığını Ortaya Koyuyor

Yeni bir araştırma ChatGPT gibi büyük dil modellerinin (LLM) bağımsız olarak öğrenemediğini veya açık talimatlar olmadan yeni beceriler edinemediğini ortaya koyarak onları öngörülebilir ve kontrol edilebilir hale getiriyor…

Çalışma, bu modellerin karmaşık muhakeme yetenekleri geliştirdiğine dair korkuları ortadan kaldırıyor ve LLM’lerin sofistike dil üretebilmelerine rağmen varoluşsal tehditler oluşturmalarının olası olmadığını vurguluyor. Bununla birlikte, YZ’nin sahte haberler üretmek gibi potansiyel kötüye kullanımı hala dikkat gerektiriyor.

Doğal dil işleme alanında önde gelen uluslararası konferans olan Association for Computational Linguistics‘in (ACL 2024) 62. Yıllık Toplantısı’nın bildirileri kapsamında bugün yayımlanan çalışma, LLM’lerin talimatları takip etme ve dilde yeterlilik konusunda yüzeysel bir yeteneğe sahip olduklarını, ancak açık talimatlar olmadan yeni becerilerde ustalaşma potansiyellerinin olmadığını ortaya koyuyor. Bu da onların doğaları gereği kontrol edilebilir, öngörülebilir ve güvenli kaldıkları anlamına geliyor.

Bath Üniversitesi‘nde bilgisayar bilimcisi ve LLM’lerin ‘ortaya çıkan yetenekleri’ üzerine yapılan yeni çalışmanın ortak yazarı Dr. Harish Tayyar Madabushi, “Bu tür YZ’nin insanlık için bir tehdit olduğu yönündeki yaygın söylem, bu teknolojilerin yaygın olarak benimsenmesini ve geliştirilmesini engelliyor ve ayrıca dikkatimizi odaklanmamız gereken gerçek sorunlardan uzaklaştırıyor” dedi.

Profesör Iryna Gurevych ise şunları ekledi: “… sonuçlarımız yapay zekânın bir tehdit olmadığı anlamına gelmiyor. Aksine, belirli tehditlerle ilişkili karmaşık düşünme becerilerinin ortaya çıktığı iddiasının kanıtlarla desteklenmediğini ve YZY’lerin öğrenme sürecini her şeye rağmen çok iyi kontrol edebileceğimizi gösteriyoruz. Bu nedenle gelecekteki araştırmalar, sahte haber üretmek için kullanılma potansiyelleri gibi modellerin yarattığı diğer risklere odaklanmalıdır.”

Bu içeriği beğendiyseniz lütfen çevrenizle paylaşınız…

Etiketler:
error: İçerik korunmaktadır !!