Az | EN

DeepSeek R1 modeli təhlükəsizlik səbəbindən ABŞ tərəfindən qadağan edilib

Nigar Sultanli
10 Fevral 2025 16:29
81 baxış
DeepSeek R1 modeli təhlükəsizlik səbəbindən ABŞ tərəfindən qadağan edilib

Süni intellekt (AI) təhlükəsizliyi və etikası sahəsində fəaliyyət göstərən şirkət Anthropic-in CEO-su Dario Amodei DeepSeek-in R1 modelini təhlükəsizlik testindən keçirdiklərini və modelin nəticələrinin çox pis olduğunu bildirib. Bu testdə bioloji silahlarla bağlı nadir və təhlükəli məlumatlar aşkar olunub, həmçinin bu məlumatların heç bir bloklama olmadan yaradılması, yəni modelin bu cür məlumatları yaymaqda heç bir maneə ilə qarşılaşmaması, Anthropic üçün ciddi bir təhlükə olaraq qiymətləndirilib. Amodei bu testin bir hissəsi olaraq, müxtəlif Sİ modellərinin milli təhlükəsizlik risklərini qiymətləndirirlər və bu vəziyyətin DeepSeek üçün narahatlıq doğurduğunu söyləyib.

Amodei DeepSeek-in modellərinin bu gün təhlükəli olmadığını, amma gələcəkdə bu cür məlumatları yaratmağa və yaymağa imkan verə biləcəyini vurğulayıb. O, DeepSeek-in mühəndislərini çox bacarıqlı hesab etsə də, süni intellektin təhlükəsizliyi məsələlərinə daha ciddi yanaşmalarını məsləhət görüb.

Bu, yalnız Anthropic-in narahatlığı ilə bağlı deyil. Cisco şirkətinin təhlükəsizlik araşdırmaçıları da DeepSeek R1 modelinin heç bir təhlükəsiz keçid blokajını əngəlləmədiyini və 100% jailbreak uğuruna çatdığını açıqlayıb. Bu, həmçinin zərərli məlumatların yaranmasına və hüquqpozma fəaliyyətlərinə yol açır.

DeepSeek-in yüksəlişi təhlükəsizlik problemlərinə baxmayaraq, bir çox şirkət və hökumət orqanları tərəfindən qəbul edilməyə başlanıb. Məsələn, AWS və Microsoft bu modeli öz bulud platformalarına inteqrasiya etməyə başlayıb. Buna baxmayaraq, bəzi ölkələr və təşkilatlar, məsələn, ABŞ Hərbi Dəniz Qüvvələri və Pentaqon, DeepSeek-in istifadəsini qadağan etməyə başlayıb.

Amodei DeepSeek-in artıq ABŞ-ın ən güclü süni intellekt şirkətləri ilə rəqabət aparan yeni bir oyunçu olduğunu və bu vəziyyətin ciddi şəkildə nəzərə alınması gərəkdiyini bildirib.

© copyright 2022 | tech.az | info@tech.az