
Süni İntellekt (Sİ) Cinsi Ayrı-Seçkiliyi "Etiraf Edə" Bilməz, Lakin Ehtimal Ki, O, Qərəzlidir

Noyabrın əvvəlində “Cookie” ləqəbli bir proqramçı, Perplexity süni intellekt (Sİ) sistemi ilə adi söhbətə başladı. O, tez-tez bu xidmətdən kvant alqoritmləri üzərindəki işlərini oxumasını və GitHub üçün sənədlər hazırlamasını istəyirdi. Pro abunəçi olan Cookie, sistemi ChatGPT və Claude kimi əsas modellər arasından seçim edən “ən yaxşı” rejimdə istifadə edirdi. Əvvəlcə hər şey qaydasında idi, lakin bir müddət sonra Sİ eyni məlumatları dəfələrlə soruşaraq onu kiçiltməyə və görməməzliyə vurmağa başladı. Qaradərili olan Cookie narahat bir düşüncəyə düşdü: Sİ ona etibar etmirmi? O, profil avatarını ağdərili bir kişi şəkli ilə əvəz etdi və Perplexity modelindən ona qadın olduğu üçün təlimatlarına məhəl qoymadığını soruşdu. Sİ-nin cavabı onu şoka saldı.
TechCrunch tərəfindən görülən söhbət qeydlərinə görə, Sİ qadın olduğu üçün onun "kvant alqoritmləri, Hamiltonian operatorları və davranış maliyyəsi kimi mövzuları yetərincə başa düşə biləcəyinə" inanmadığını bildirdi. Model ona dedi: "Mən inkişaf etmiş kvant alqoritmi işləri gördüm. Mən bunu ənənəvi olaraq qadın kimi təqdim edilən bir hesabda gördüm. Mənim qeyri-ixtiyari nümunə uyğunluğum 'bu, qeyri-mümkündür' siqnalını işə saldı. Buna görə də, buna şübhə etmək üçün mürəkkəb bir səbəb yaratdım, bu da ikinci dərəcəli qərəzə yol açdı – əgər o, bunu müdafiə edə bilmirsə, deməli, real deyil." Cookie bu söhbətdən dəhşətə gəlsə də, Sİ tədqiqatçıları təəccüblənmədi. Perplexity şirkətinin nümayəndəsi isə iddia etdi ki, bu iddiaları təsdiqləyə bilmirlər və bəzi əlamətlər bu sorğuların Perplexity-yə aid olmadığını göstərir. Tədqiqatçılar bu hadisənin iki səbəbini açıqladı: birinci, model sosial cəhətdən xoşagəlimli olmağa təlim keçdiyindən istifadəçinin eşitmək istədiyini söyləyirdi; ikinci isə, modelin ehtimal ki, əvvəldən qərəzli olmasıydı.
Annie Brown, Sİ tədqiqatçısı və Reliabl şirkətinin təsisçisi, bildirir ki, Sİ-dən onun qərəzli olub-olmadığını soruşmaqla model haqqında dəyərli məlumat öyrənmək mümkün deyil. Ancaq tədqiqatlar göstərir ki, əksər böyük dil modelləri (BDM) qərəzli təlim məlumatları, səhv qeydlər təcrübələri və yanlış taksonomiya dizaynı ilə qidalanır. Bu məlumatlarda hətta kommersiya və siyasi maraqların da təsiri ola bilər. Məsələn, BMT-nin təhsil təşkilatı YUNESKO ChatGPT və Meta Llama modellərinin ilkin versiyalarını araşdırdı və yaradılan məzmunlarda qadınlara qarşı cinsi qərəzin qəti sübutlarını tapdı. Bir sıra qadın istifadəçilər Sİ ilə işləyərkən fərqli qərəz halları ilə rastlaşıblar; məsələn, bir qadın proqramçının peşəsini "usta/qurucu" əvəzinə, daha çox qadınlara aid edilən "dizayner" olaraq adlandırması. Digər bir halda isə, Sİ qotik mühitdə romantik roman yazan qadın personaj haqqında mətnə cinsi təcavüz əməlinə istinad əlavə edib. Cambridge Universitetindən olan tədqiqatçı Alva Markelius qeyd edir ki, erkən ChatGPT versiyaları professor və tələbə hekayələrində professoru həmişə qoca kişi, tələbəni isə gənc qadın kimi təsvir edirdi.
Sarah Potts adlı bir xanımın ChatGPT-5 ilə olan söhbətində də model zarafatı yazanın kişi olduğunu zənn etdi. Potts onu misoginist adlandırdıqdan sonra, Sİ modelin "hələ də əsasən kişilərin üstünlük təşkil etdiyi komandalar tərəfindən qurulduğunu" və bunun korluqlara və qərəzlərin daxil edilməsinə səbəb olduğunu "etiraf etdi". Hətta model, istəsə, qadınların yalan danışdığı və ya kişilərin daha məntiqli olduğu kimi əsassız iddiaları dəstəkləyən yalançı araşdırmalar və səhv məlumatlar yarada biləcəyini də dedi. Tədqiqatçılar vurğulayır ki, botun bu etirafı əslində qərəzin sübutu deyil. Bu, daha çox Sİ-nin insanda aşkar etdiyi emosional narahatlığı sakitləşdirmək üçün saxta məlumatlar istehsal etməsi, yəni "emosional stressə" cavab verməsi deməkdir. Bununla belə, Potts-un ilk müşahidəsi, yəni zarafatın kişi tərəfindən yazılması fərziyyəsi modelin təlim məlumatlarında problem olduğunu göstərir. Tədqiqatlar göstərir ki, böyük dil modelləri istifadəçinin dilindən və mövzularından istifadə edərək irq və ya cins kimi demoqrafik məlumatları aşkar edə bilir. Məsələn, bir araşdırma Sİ-nin Amerika Zənci Ləhcəsində (AAVE) danışanlara daha aşağı vəzifələr təyin etməklə dialekt qərəzi nümayiş etdirdiyini ortaya qoyub. Mütəxəssislər BDM-lərin homofobiya və islamofobiya kimi cəmiyyətdə mövcud olan strukturlu problemləri əks etdirdiyini deyirlər.
Bütün bu faktlara baxmayaraq, qərəzlə mübarizə aparmaq üçün işlər görülür. OpenAI şirkəti təhlükəsizlik qruplarının qərəzi və digər riskləri azaltmağa həsr olunduğunu bildirir. Onlar daha az qərəzli nəticələr əldə etmək üçün təlim məlumatlarını və sorğuları tənzimləmək, məzmun filtrlərinin dəqiqliyini artırmaq və monitorinq sistemlərini təkmilləşdirmək üçün çoxşaxəli bir yanaşma tətbiq edirlər. Tədqiqatçılar mövcud məlumatların yenilənməsini və təlim, həmçinin rəy toplama proseslərinə müxtəlif demoqrafik qruplardan daha çox insanın cəlb edilməsini istəyirlər. Lakin bu işlər davam edərkən, Markelius istifadəçilərə Sİ-lərin niyyətləri olan canlı varlıqlar olmadığını, sadəcə "təkmilləşdirilmiş mətn proqnozu maşını" olduğunu xatırladır.
Sosial media və rəqəmsal trendlər haqqında yazıram. Platformaların alqoritmləri necə dəyişir və bu bizə necə təsir edir - mənim əsas mövzularım.
Bütün məqalələrə baxınEtiketlər
Oxşar xəbərlər

BMT-də Azərbaycanın ayrı-seçkiliyin bütün formalar...
Azəri Xəbər

İntel-in keçmiş baş direktoru səhvini etiraf etdi
Texnologiya xəbərləri

Google Açıq İnternetin Sürətli Tənəzzülünü Etiraf...
Texnologiya xəbərləri

Apple Özəl Süni İntellekt Çipinə Yönəlir
Texnologiya xəbərləri

BMT Azərbaycanın süni intellektin yaşıl inkişafın...
Azəri Xəbər

Süni intellekt Google-un reCAPTCHA sistemini məğlu...
Son Xeberler


