🎉 Son Yeniliklər: Yeni dizaynımızı istifadəyə verdik.

Axtar

Məşhur kanallar

Bugun.az
Bugun.az
9 abunə
Son Xeberler
Son Xeberler
9 abunə
Anar Türkeş
Anar Türkeş
6 abunə
Texnologiya xəbərləri
Texnologiya xəbərləri
5 abunə

Süni Zəka "Halüsinasiya" Problemini Həll Edəcək?

12.09.2025 08:03 1 baxış sayı 3 dəq. oxuma
Süni Zəka "Halüsinasiya" Problemini Həll Edəcək?

Sınıf otağından ofislərə, gündəlik həyatımızın bir hissəsinə çevrilmiş süni zəka söhbət robotları, bəzən tamamilə yanlış, uydurma məlumatlar yaradaraq istifadəçiləri çaşdırır. Bu hadisə "halüsinasiya" adlanır və OpenAI bu problemi həll etdiyini və gələcək süni zəka alətlərini daha etibarlı edəcək bir həll yolu tapdığını iddia edir.


Georgia Texnologiya İnstitutundan Santosh Vempala və digər tədqiqatçılarla birgə OpenAI, 36 səhifəlik bir araşdırmada bu məsələni ətraflı araşdırdı. Tədqiqatçılar, halüsinasiyaların model dizaynındakı bir qüsurdan deyil, süni zəka sistemlərinin sınaqdan keçirilmə və sıralanma üsulundan qaynaqlandığını irəli sürürlər. Mövcud qiymətləndirmə üsulları, hər sualı cavablandıran söhbət robotlarını mükafatlandırır, əmin olmadıqda susan modelləri isə cəzalandırır. Bu, şagirdlərin boş buraxmaq əvəzinə sualları təsadüfi cavablandırdıqları çoxvariantlı imtahandan fərqlənmir.


OpenAI, bu problemi həll etmək üçün qiymətləndirmə sistemini dəyişdirməyi təklif edir: Yanlış və əmin cavablar üçün modellər ağır şəkildə cəzalandırılmalı, ehtiyatlı davranan, qeyri-müəyyənliyi ifadə edən və ya "Bilmirəm" deyən modellər isə mükafatlandırılmalıdır. Bu yeni yanaşmanın fərqini göstərən ilk nümunələr olduqca açıqdır. Bir testdə, ehtiyatlı bir model sualların yalnız yarısını cavablandırır, lakin bunların 74 faizini düzgün cavablandırır. Digər bir model isə demək olar ki, bütün sualları cavablandırır, ancaq hər dörd sualdan üçünü uydurma cavablandırır.


Əgər bu yanaşma qəbul olunarsa, süni zəka assistentlərinin gündəlik davranışı tamamilə dəyişə bilər. Mənbələr və ya statistika uydurmaq əvəzinə, "Bundan əmin deyiləm" və ya "Bilmirəm" kimi cavablar vermə ehtimalı daha yüksək olacaq. İlk baxışda bu daha az təsirli görünə bilər, lakin istifadəçilərin cavablarını daim yoxlamaq ehtiyacını aradan qaldırmaqla daha etibarlı bir təcrübə təmin edə bilər. OpenAI üçün bu araşdırma, böyük, lakin etibarsız özünəinamdan daha çox dəqiqlik və etibara üstünlük verən bir süni zəka istiqamətində əhəmiyyətli bir addımdır.


Paylaş: