
OpenAI-nın Yeni Süni Zəka Modellərində Dəqiqlik Problemi

Keçən həftə təqdim olunan OpenAI-nın yeni nəsil süni zəka modelləri dəqiqlik baxımından ciddi narahatlıq yaradıb. o3 və o4-mini adlı modellərin bəzən gerçəkliyə uyğun olmayan, yəni “hallusinasya” adlandırılan məlumatlar yaratdığı müəyyən edilib. Süni zəka sahəsində “hallusinasya”, modellərin mövcud olmayan və ya dəqiqliklə uyğun olmayan informasiya istehsal etməsi deməkdir. Bu, xüsusilə bilik əsaslı tətbiqlər üçün ciddi risk yaradır.
OpenAI-nın texniki sənədlərində paylaşdığı nəticələrə görə, o3 modeli şirkət tərəfindən hazırlanan PersonQA informasiya dəqiqlik testində 33 faiz hallusinasya əmsalına sahib olub. Əvvəlki nəsil o1 modelinin bu testdəki hallusinasya əmsalı 16 faiz, o3-mini modelinin isə 14,8 faiz olub. Yeni modellər arasında ən yüksək hallusinasya əmsalı isə o4-mini modelinə məxsusdur – 48 faiz. OpenAI bu gözlənilməz artımın səbəbini hələlik müəyyən edə bilməyib və vəziyyətin aydınlaşdırılması üçün daha çox araşdırmanın lazım olduğunu bildirib.
Xüsusilə riyazi analiz və proqram istehsalı kimi sahələrdə müsbət nəticələr göstərən modellərin informasiya dəqiqliyi baxımından tarazlıq problemi yaşadığı bildirilir. Bəzi ekspertlər bu vəziyyətin səbəbinin modelin öyrədildiyi gücləndirmə öyrənmə prosesi ilə bağlı ola biləcəyini düşünürlər. OpenAI yeni modellərinin performansını optimallaşdırmaq üçün işlərini davam etdirir.
Oxşar xəbərlər

Google Docs-a Süni Zəka ilə Güclü Dəstək
Texnologiya xəbərləri

Apple Süni Zəka Prioritetlərini Açıqladı!
Texnologiya xəbərləri

AMD İlk Özəl İnkişaf Etdirilmiş Süni Zəka Modelini...
Son Xeberler

Microsoft və OpenAI-ın gizli anlaşması üzə çıxdı!
Texnologiya xəbərləri

Məşhur Süni Zəka Tətbiqində Romantik Əlaqələr Qada...
Texnologiya xəbərləri

DeepSeek Şirkətinin MIT Lisenziyalı Süni Zəkası Op...
Texnologiya xəbərləri