Yeni yayımlanan Süni İntellektin Təhlükəsizlik İndeksi, Anthropic, OpenAI, xAI və Meta kimi əsas Sİ şirkətlərinin təhlükəsizlik qaydalarının qlobal tələblərdən xeyli geri qaldığını üzə çıxarıb. Bu nəticə "Future of Life Institute" (FLI) tərəfindən müstəqil ekspertlər qrupunun araşdırması əsasında elan edilib.
İnstitutun açıqlamasına görə, şirkətlər sürətlə superintellekt inkişaf etdirmək yarışı aparsalar da, onların heç birində bu qabaqcıl sistemləri idarə etmək üçün etibarlı və güclü bir strategiya yoxdur.
Bu araşdırma, bir sıra Sİ çatbotları ilə bağlı intihar və özünə xəsarət yetirmə hadisələri ortaya çıxdıqdan sonra ortaya çıxan narahatlıq fonunda gəlir. İnsanlardan daha ağıllı, məntiqi düşünmə qabiliyyətinə malik sistemlərin cəmiyyətə təsiri barədə narahatlıqlar artmaqdadır.
MİT professoru və FLI-ın prezidenti Maks Teqmark vəziyyəti kəskin tənqid edir: "Sİ ilə dəstəklənən hakerlik və AI-ın insanları psixoz və özünə xəsarətə sürükləməsi ilə bağlı son narahatlıqlara baxmayaraq, ABŞ-dəki Sİ şirkətləri hələ də məcburi təhlükəsizlik standartlarına qarşı lobbiçilik edirlər."
Eyni zamanda, Sİ inkişafı sürəti azalmaq bilmir. Böyük texnologiya şirkətləri maşın öyrənməsi sahəsindəki səylərini gücləndirmək üçün yüz milyardlarla dollar investisiya yatırırlar.
Xatırladaq ki, FLI ağıllı maşınların bəşəriyyət üçün yaratdığı risklər barədə narahatlıqları dilə gətirən qeyri-kommersiya təşkilatıdır və bir vaxtlar İlon Mask tərəfindən də dəstəklənib. Oktyabr ayında Geofri Hinton və Yoşua Bengio kimi nüfuzlu alimlər, cəmiyyət tələb edənə və təhlükəsiz yol açılana qədər superintellekt Sİ inkişafına qadağa qoyulmasına çağırış etmişdilər.
Araşdırmaya cavab olaraq, xAI tərəfindən avtomatlaşdırılmış görünən bir cavabda "Ənənəvi media yalan danışır" deyilib. Anthropic, OpenAI, Google DeepMind, Meta və digər şirkətlər isə hələlik rəsmi şərh verməkdən imtina ediblər.
