Günde en az 78 kez telefon ekranına tıklıyoruz Günde en az 78 kez telefon ekranına tıklıyoruz

Yapay zeka sistemleri, özellikle büyük dil modelleri (LLM'ler), bazen gerçek olmayan veya yanıltıcı bilgiler üretebiliyor. Bu durum, "halüsinasyon" olarak adlandırılıyor. ChatGPT gibi popüler araçlar, dil üretme yetenekleriyle öne çıkarken, bazen gerçeklerden uzaklaşarak uydurma bilgiler sunabiliyor.

Yeni yöntem nasıl çalışıyor?

Yeni geliştirilen araç, LLM'lerin ürettiği metinlerin doğruluğunu kontrol etmek için birden fazla LLM kullanıyor. İlk LLM, metni analiz ederek olası halüsinasyonları tespit etmeye çalışıyor. Ardından ikinci bir LLM, bu analizi değerlendirerek metnin güvenilirliği hakkında bir karar veriyor.

Bu yöntem, kelimelerin anlamlarına odaklanarak çalışıyor. Araştırmacılar, sistemin kontrol edilmesi gereken çıktılarını, ifadelerin anlamsal tutarlılığını değerlendiren başka bir sisteme gönderiyor. Bu sayede, metnin gerçeklere dayanıp dayanmadığı daha iyi anlaşılabiliyor.

Gelecekte bizi neler bekliyor?

Yeni aracın, yapay zeka sistemlerinin güvenilirliğini artırarak daha geniş bir kullanım alanı bulmasına yardımcı olması bekleniyor. Ancak, bazı araştırmacılar, birden fazla LLM'nin kullanılmasının yeni sorunlara yol açabileceği konusunda uyarıyor.

Kaynak: Haber Merkezi