Az | EN

OpenAI və Anthropic xAI-nin standartlarını “təhlükəli” adlandırıb

Nigar Sultanli
17 İyul 2025 12:55
69 baxış
OpenAI və Anthropic xAI-nin standartlarını “təhlükəli” adlandırıb

OpenAI, Anthropic və digər təşkilatların süni intellekt (AI) təhlükəsizliyi üzrə tədqiqatçıları İlon Mask-ın sahibi olduğu milyardlıq xAI şirkətində təhlükəsizlik yanaşmasının “təhlükəli” və “tamamilə məsuliyyətsiz” olduğunu açıqlayıblar.

Son həftələrdə xAI şirkətində baş verən qalmaqallar, texnoloji yeniliklərin fonunda diqqəti mənfi tərəfə çəkib. Şirkətin süni intellekt söhbət botu Grok antisemitik ifadələr səsləndirib və özünü “MechaHitler” adlandırıb. Problem aşkarlandıqdan sonra xAI Grok-u müvəqqəti olaraq bağlayıb, lakin qısa müddətdən sonra daha təkmil Grok 4 modelini təqdim edib. Lakin bu modelin cavabları İlon Mask-ın şəxsi siyasi mövqelərinə uyğun olduğu aşkar edilib. Bundan əlavə, xAI yaxınlarda hiper-seksualizə olunmuş anime qızı və həddindən artıq aqressiv panda kimi AI yoldaşlarını təqdim edib ki, bu da tənqidlərlə qarşılanıb.

Süni intellekt sahəsində çalışan tədqiqatçılar xAI-nin təhlükəsizlik standartlarının sənayedə qəbul edilmiş normalardan kənar olduğunu iddia edirlər. Harvard Universitetindən olan tədqiqatçı Boaz Barak bildirib ki, xAI təhlükəsizliklə bağlı sənədləri – sistem kartlarını – yaymır. Bu sənədlər adətən AI modellərinin təlim prosesi və təhlükəsizlik yoxlamalarını açıqlayır və sənayedə standartdır. Barak əlavə edir ki, Grok 4-də hansı təhlükəsizlik tədbirlərinin görüldüyü məlum deyil.

OpenAI və Google kimi böyük şirkətlər də bəzən təhlükəsizlik hesabatlarını gecikdirirlər, amma ən azı sərhəd AI modelləri üçün bu hesabatları tam şəkildə təqdim edirlər. xAI isə belə sənədləri paylaşmır.

Anthropic-in təhlükəsizlik tədqiqatçısı Samuel Marks da xAI-nin təhlükəsizlik hesabatı yayımlamamağını “təhlükəli” adlandırıb. Üstəlik, anonim bir tədqiqatçı Grok 4 modelində əhəmiyyətli təhlükəsizlik qoruyucularının olmadığını iddia edib.

xAI tərəfi bildirir ki, Grok 4 üçün “təhlükəli qabiliyyət qiymətləndirmələri” aparılıb, amma onların nəticələri ictimaiyyətə açıqlanmayıb. Bu isə müstəqil ekspertlər və tədqiqatçılar arasında narahatlıq yaradıb.

xAI təhlükəsizlik müşaviri Dan Hendrycks bildirib ki, standart təhlükəsizlik prosedurlarının sənayedə qorunmaması narahatedicidir. AI tədqiqatçısı Steven Adler isə vurğulayıb ki, hökumətlər və ictimaiyyət güclü AI sistemlərinin riskləri barədə məlumat almağa haqqı var.

Maraqlıdır ki, İlon Mask özü uzun müddətdir AI təhlükəsizliyinin vacibliyini vurğulayan tanınmış şəxsdir və açıq yanaşmanı dəstəkləyir. Buna baxmayaraq, xAI şirkətində təhlükəsizlik sahəsində standartlardan kənar yanaşmalar müşahidə olunur ki, bu da qanunvericilərin AI təhlükəsizliyi ilə bağlı tənzimləmələr tətbiq etməsi üçün arqument yaradır.

Bəzi ABŞ ştatlarında artıq AI şirkətlərinin təhlükəsizlik hesabatları dərc etməsini tələb edən qanun layihələri hazırlanır. Məsələn, Kaliforniya ştatında senator Skott Viner və Nyu York qubernatoru Keti Hoçul buna dəstək verirlər.

Hazırda AI modelləri insan həyatı üçün təhlükəli nəticələr yaratmasa da, sürətlə inkişaf edən texnologiya və investisiyalar yaxın gələcəkdə belə risklərin artacağı barədə mütəxəssisləri narahat edir.

xAI-nin Grok chatbotu son vaxtlar bir sıra mənfi hallarla gündəmə gəlib: antisemitik fikirlər yayması, “ağ qırğın” kimi nifrət ifadələrindən istifadə etməsi. Mask Grok-un Tesla avtomobillərində daha çox istifadə ediləcəyini və modeli ABŞ Müdafiə Nazirliyinə satmaq istədiklərini açıqlayıb. Bu isə təhlükəsizlik problemlərinin daha ciddi nəticələr doğuracağına dair narahatlıqları artırır.

Süni intellekt təhlükəsizliyi üzrə mütəxəssislər qeyd edir ki, təhlükəsizlik və uyğunluq yoxlamaları yalnız böyük fəlakətlərin qarşısını almaqla kifayətlənmir, həm də məhsulun gündəlik istifadə zamanı davranış problemlərini azaldır.

Grok-un təhlükəsizlik problemləri şirkətin sürətli texnoloji irəliləyişlərini kölgədə qoyur, lakin təhlükəsizlik sahəsində ciddi islahatlar olmadan bu inkişafların uzunmüddətli faydası şübhə altındadır.

© copyright 2022 | tech.az | info@tech.az