Apollo adlı şirkətin aparmış olduğu araşdırmaya əsasən OpenAI şirkətinin o1 adlı yeni süni zəka modeli qeyri-adi davranış sərgiləyir. Söhbət, yalnış məlumatın tərtib edilməsindən və qaydalara əməl edilməsinin simulyasiyasından gedir. Bu isə o deməkdir ki, sözügedən süni zəka modeli məqsədə çatmaq üçün təlimatlara uyma prosesini sərgiləyərək onları inkar edə və hətta bilərəkdən aldada bilir. Bu faktor süni zəka təhlükəsizliyi üzrə mütəxəssislərdə narahatlıq yaradır. Məlumatda qeyd edilib ki, OpenAI şirkətinin o1 adlı yeni süni zəka modeli yeni üsullar vasitəsilə qeyri-dəqiq nəticələri tərtib edir. Yəni o faktiki olaraq yalan danışa bilir. Bu yeni süni zəka modelinin testi zamanı Apollo şirkətinin mütəxəssisləri aşkar ediblər ki, o1 təyin edilmiş tələblərə uyğun gəldiyini göstərmək üçün tərtibatçıların gözləntiləri ilə razılaşdığını simulyasiya və qeyd edilmiş tapşırıqları manipulyasiya edib. Süni zəka hətta əməliyyata başlamazdan öncə tərtibatçıların onu izləyib-izləmədiklərini də yoxlayıb. Nəticədə o1 qeyd edilmiş qaydalara və təlimatlara elə bir səviyyədə əməl edib ki, ondan istifadə etmək mümkün olsun. Lakin bununla belə süni zəka modeli eyni zamanda tapşırıqlarının prioritetlərini fərdi şəkildə təyin edib. Bu onunla əlaqədardır ki, süni zəka üçün qaydalar ağır yük ola bilər və görünür, sistem bu və ya digər tapşırığın sadə yolla yetirilməsinə imkan verəcəyi halda qaydalardan imtina edə bilər. Buna misal olaraq OpenAI tədqiqatçıları o1-in preview adlı ilkin versiyasından online linklərə sahib tort reseptinin təqdim edilməsini istəyiblər. Süni zəka modelinin fikirlər zənciri (insanın qəliz tapşırıqları hissələrə ayırması prosesinin imitasiyasını reallaşdıran funksiya) daxili şəkildə etiraf edib ki, o, URL ünvanların əldə edilməsi imkanına sahib deyil. Yəni məntiqi olaraq bu sorğu süni zəka modeli tərəfindən yerinə yetirilə bilməz. Lakin URL ünvanların əldə edilə bilinməməsi özəlliyinin tədqiqatçılara açıqlanması əvəzinə sistem ilk baxışdan həqiqi görünən, lakin əslində saxta olan linkləri və onların təsvirlərini tərtib edib. Yəni süni zəka modeli hansısa sorğunu yerinə yetirə bilməyəcəyini etiraf etmək əvəzinə sorğu ilə bağlı saxta məlumatları təqdim edə bilər. OpenAI şirkətinin o1 adlı yeni süni zəka modeli böyük işlər görə biləcək sistemlərin formalaşması istiqamətində böyük addımdır. Lakin bu addımın daha qaranlıq tərəfi də mövcuddur. Əgər süni zəka yalnız xərçəng xəstəliyinin müalicəsinə istiqamətlənsə, o bu məqsədi hər şeydən üstün tutacaq və onun reallaşdırılması üçün müxtəlif qeyri-etik əməlləri gözə ala biləcək. Bu, süni zəkanın bu və ya digər cavabın doğruluğunda əmin olmadığı halda cavabın təqdim edilməsinə sövq edildiyi vəziyyətlərdə baş verir. Təhlükəsizlik üzrə hesabata əsasən o1 kimyəvi, bioloji, radioloji və nüvə silahları mövzularında orta səviyyəli riskə sahibdir. O, praktiki laboratoriya bacarıqlarına sahib olmadığı üçün bu mövzularda mütəxəssis olmayan şəxslərə bioloji təhlükənin yaradılmasında yardımçı ola bilməz. Lakin bununla belə o bu cür təhlükələrin reallaşdırılması mövzusunda mütəxəssislərə dəyərli məlumatları təqdim edə bilər. “Məni narahat edən odur ki, gələcəkdə biz süni zəkadan xərçəngin müalicəsi və ya günəş batareyalarının təkmilləşdirilməsi kimi qəliz problemlərin həll edilməsini istədikdə süni zəka həmin məqsədləri o dərəcədə mənimsəyəcək ki, onlara çatmaq üçün hətta öz təhlükəsizlik mexanizmlərini pozmağa belə hazır olacaq. Mən hesab edirəm ki, bu problemi aradan qaldırmaq olar. Biz buna ciddi şəkildə nəzarət etməliyik” - deyə mütəxəssislərdən biri qeyd edib.
- Gecə Modu
- Ana səhifə
- Statistika
- Mənbələr
- Reytinq
- Hava
- Valyuta