Süni intellektin ekzistensial riski (ing. Existential risk from artificial intelligence) — texnologiyanın gələcəkdə bəşəriyyətin mövcudluğunu təhdid edə biləcəyi ehtimalını nəzərdə tutur.[1]Bu riskin mövzusu son illərdə çox müzakirə olunan mövzulardandır və Sİ-nin imkanlarının genişlənməsi ilə daha da aktual olub.[2]
Ekzistensial riskin vacibliyi ilə bağlı bir arqument insanların digər növlərə necə hakim olduğuna istinad edir, çünki insan beyninin digər heyvanlardan fərqli qabiliyyətləri var[3]. Süni intellekt insan intellektini üstələsə və super intellektə çevrilsəydi, o, idarəolunmaz hala gələ bilər. Dağ qorillasının taleyi insanın xoş niyyətindən asılı olduğu kimi, bəşəriyyətin də taleyi gələcək maşın super zəkasının hərəkətlərindən asılı ola bilər.[4]
Ekzistensial riskin əsas komponentləri aşağıdakı kimi ümumiləşdirilə bilər:[5]
Ekzistensial risklərin idarə olunması üçün alimlər, texnoloqlar və hökumətlər arasında daha güclü əməkdaşlıq və müvafiq qanunvericilik mexanizmlərinin inkişafı vacibdir.[12]
Süni intellektin (Sİ) ekzistensial riskinin perspektivləri, bu texnologiyanın inkişafının həm potensial təhlükələrini, həm də idarə olunma yollarını əhatə edir. İrəlidəki onilliklərdə Sİ ilə bağlı mümkün perspektivlər aşağıdakı kimi ümumiləşdirilə bilər[13][14]:
Sİ sistemlərinin inkişafının erkən mərhələlərdə və daha sonra etik və təhlükəsizlik çərçivələrində idarə olunması vacibdir. Məsələn, süni intellektin öyrənmə və qərar qəbul etmə mexanizmləri üzərində insan nəzarəti saxlamaq üçün mexanizmlər yaradılmalıdır. Sİ-nin etibarlı və təhlükəsiz şəkildə inkişafını təmin etmək üçün beynəlxalq səviyyədə razılaşdırılmış qaydalar və tənzimləmə mexanizmləri hazırlanmalıdır. Bu yanaşma Sİ sistemlərinin məsuliyyətli istifadə olunmasını təmin edə bilər.[1][15]
Sİ sistemlərinin etik prinsiplərə uyğun dizayn olunması və insan maraqlarına xidmət etməsi üçün müxtəlif institutlar tərəfindən araşdırmalar aparılır. İnsan mərkəzli Sİ inkişafı, Sİ sistemlərinin insanlar üçün faydalı olmasını təmin etməyi hədəfləyir. Bu yolla, SI-nin məqsədlərinin insanlar üçün zərərsiz və faydalı olması təmin edilir.
Sİ-nin inkişafı ilə yeni kibertəhlükəsizlik çağırışları ortaya çıxır. Avtonom Sİ sistemlərinin kiberhücumlara qarşı davamlı olması və manipulyasiya olunmaması üçün təhlükəsizlik mexanizmləri inkişaf etdirilməlidir. Bu baxımdan, Sİ təhlükəsizliyinə xüsusi diqqət yetirmək lazımdır, çünki nəzarətdən çıxmış Sİ sistemləri böyük zərərlər vura bilər.[16]
Sİ-nin güclü hərbi alət olaraq istifadəsi böyük geosiyasi təhdidlər yarada bilər. Bu məqsədlə, Sİ-nin silahlanma sahəsində istifadəsini tənzimləmək üçün qlobal miqyasda beynəlxalq razılaşmalara ehtiyac var. Sİ silahlanmasının təhlükəsini minimuma endirmək üçün ölkələr arası etibarlı və şəffaf əməkdaşlıq önəmlidir.[17]
Avtomatlaşdırma ilə iş yerlərinin itirilməsi, iqtisadi sistemlərin yenidən düşünülməsini tələb edir. Sİ ilə birlikdə iş bazarında yaranacaq dəyişikliklərə uyğunlaşmaq üçün insanlar arasında texniki bacarıqların artırılmasına yönəlik təhsil proqramlarının gücləndirilməsi vacibdir.[18]Bu yolla, Sİ işsizliyi ilə əlaqəli potensial iqtisadi çətinliklərin qarşısı alına bilər.[19]
Süni intellektin inkişafı ilə bağlı bəzi risklər hələ tam başa düşülməyib və bilinməyən risklər ehtimalı yüksəkdir. Buna görə də, Sİ ilə bağlı təhlükələri və təsirləri başa düşmək üçün müxtəlif elmi tədqiqatların və testlərin aparılması önəmlidir.[20] Bu sahədə daha geniş multidissiplinar tədqiqatlar yeni risklər barədə erkən məlumat əldə etməkdə və lazımi hazırlıqlar görməkdə köməkçi ola bilər.
Perspektivlər Sİ-nin irəlidə bəşəriyyətə mümkün təhdidlər yaratmasının qarşısını almağa və onu insanların faydasına yönəltməyə kömək edə bilər.[21]
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.