Süni intellekt sənayesinin qabaqcıllarından olan Google, OpenAI, Microsoft və Anthropic şirkətləri süni intellektin təhlükəsizliyini təmin etmək məqsədi ilə “Frontier Model Forum” adlı qrup yaradıblar. Bu tərəfdaşlıq texnologiya dünyasına təsir edən, məlumat təhlükəsizliyi və zərərli məzmun baxımından risklər daşıyan generativ süni intellekt modellərini təhlükəsiz və məsuliyyətli şəkildə inkişaf etdirməyi hədəfləyir.
Bundan əlavə, bu tərəfdaşlıq mövcud olan ən qabaqcıl modellərin imkanlarını üstələyən "böyük maşın öyrənmə modelləri"nin inkişafına üstünlük verir.
Yeni təhlükəsizlik qrupunun dörd əsas məqsədi var:
1. Süni intellekt modellərinin məsuliyyətli inkişafını təşviq etmək və riskləri azaltmaq üçün AI təhlükəsizlik tədqiqatının inkişafını təmin etmək
2. Texnologiyanın mahiyyətini, imkanlarını, məhdudiyyətlərini və təsirini anlamaq üçün ən yaxşı təcrübələri müəyyən etmək
3. Təhlükəsizlik riskləri haqqında məlumatı bölüşmək üçün siyasətçilər, alimlər, vətəndaş cəmiyyəti və şirkətlərlə əməkdaşlıq etmək
4. İqlim dəyişikliyinin azaldılması, xərçəng xəstəliyinin erkən diaqnozu və kiber təhdidlərlə mübarizə kimi sosial problemlərin həllinə kömək edə biləcək proqramlar hazırlamaq.
“Frontier Model Forum”u öz işinə süni intellektlə bağlı tövsiyələr verəcək və şirkətlər və hökumətlərlə məlumat paylaşacaq məsləhət şurası yaratmaqla başlayacaq. Qrup süni intellekt təhlükəsizliyi üçün həllər hazırlamaq üçün səy göstərən digər şirkətləri dəvət edir.