Tədqiqatçılar internetin süni intellekt tərəfindən yaradılan məzmunla dolması nəticəsində süni intellekt sistemlərinin cəfəngiyyata çevrilə biləcəyi barədə xəbərdarlıq ediblər.
“OpenAI”nin “ChatGPT” kimi mətn yaradan sistemlərə həvəs son illərdə durmadan artıb. Bu həyəcan bir çox insanı bloq yazılarını və sistemlər tərəfindən yaradılmış müxtəlif məzmunu dərc etməyə təşviq edib ki, süni intellektlə yaradılan məzmun internetin getdikcə daha böyük bir hissəsini tutub.
Lakin bu sistemləri istehsal edən şirkətlərin əksəriyyəti sistemləri öyrətmək üçün internetdəki mətnlərdən istifadə edir. Bu, mətnləri yaratmaq üçün istifadə edilən Süni intellekt sistemlərinin eyni mətnlərlə öyrədildiyi bir dövrə səbəb ola bilər.
Yeni bir araşdırmada tədqiqatçılar bunun Süni intellekt alətlərini tez bir zamanda mənasızlığa və boşboğzalığa apara biləcəyi barədə xəbərdarlıq etdilər. Onun xəbərdarlıqları “ölü internet nəzəriyyəsi” ilə bağlı daha geniş narahatlıqların bir hissəsidir ki, bu da internetin artan bir hissəsinin avtomatlaşdırıldığını və pis dövrəyə girdiyini göstərir.
Tədqiqata görə, sistemin mənasızlıq yaratmağa başlaması üçün məzmun yaradan sistemin bir neçə dövrü və onun istehsal etdiyi məzmuna dair təlim keçməsi kifayətdir.
Məsələn, tədqiqatçılar orta əsr memarlığına aid mətnlərlə sınaqdan keçirilmiş bir sistemdə məhsulun cəmi 9 istehsalda dovşan növlərinin təkrarlanan siyahısına çevrildiyini müşahidə etdilər.
İstehsal etdiyi məlumat dəstləri ilə süni intellektin öyrədilməsi və nəticələrin çirklənməsi “model çökməsi” adlanır. Tədqiqatçılar, internetdə süni intellekt sistemlərindən daha çox istifadə edildiyi üçün bu vəziyyətin geniş yayıla biləcəyi barədə xəbərdarlıq edirlər.
Bu problem ona görə baş verir ki, sistemlər istehsal etdikləri məlumatlar üzərində təlim keçdikləri üçün verilənlərin daha az yayılmış hissələrini buraxmağa meyllidirlər. Bu araşdırmada iştirak etməyən tədqiqatçı Emili Venger, müxtəlif it cinsləri ilə öyrədilmiş bir sistem nümunəsi verdi – əgər faktiki məlumatda daha çox qızıl “Retriver” (it cinsi) varsa, sistem onları məlumatlardan seçir və digər itləri kənarda qoyur. Proses bu cür irəliləyir və sonda çökür. Bundan sonra cəfəngiyatlar başlayır.
Tədqiqatçılar eyni nəticəni “ChatGPT” və “Google”un “Gemi”ni ilə işləyən böyük dil modellərində müşahidə ediblər.
Bu, təkcə sistemlərin getdikcə daha disfunksiyalı olacağı üçün deyil, həm də onların nəticələrinin daha az müxtəlif olacağı üçün problem yarada bilər. Məlumatlar istehsal olunduqca və təkrar emal olunduqca sistemlər dünyadakı fərqləri əks etdirmək üçün mübarizə apara, daha kiçik qruplar və nailiyyətlər tamamilə silinə bilər.
Tədqiqatçılar məqalədə yazır: “Əgər internetdəki irimiqyaslı məlumatların təmizlənməsini davam etdirilmək istənilirsə, bu məsələyə ciddi yanaşmaq lazımdır”. Bu, həm də o deməkdir ki, sistemlərini öyrətmək üçün artıq məlumatları silmiş şirkətlər üstünlüyə malikdirlər, çünki keçmişdə toplanmış məlumatlarda daha çox real insan girişi var”.
Bu problem bir çox yollarla həll edilə bilər, o cümlədən çıxışın avtomatlaşdırılmış sistemlər tərəfindən aşkar edilməsi və təlim dəstlərindən xaric edilməsi üçün nişan qoyulması. Ancaq nişanların asanlıqla silinməsi və Süni intellekt şirkətlərinin nişanlardan istifadədə əməkdaşlığa maneələr yaratması kimi başqa problemlər də var.
“Süni intellekt modelləri rekursiv şəkildə yaradılan məlumatlara öyrədildikdə çökür” adlı araşdırma dərc olunub.