Əsas məzmuna keç
AI Modelləri ilə Aldadılma Təcrübəsi: Təhlükəli Dərəcədə Yaxşı Olanlar
Süni intellekt

AI Modelləri ilə Aldadılma Təcrübəsi: Təhlükəli Dərəcədə Yaxşı Olanlar

23 aprel 2026, 13:151 dəq oxuma1.8K

Süni intellekt modelləri sizi aldatmağa çalışsa nə edərdiniz? Bu məqalədə AI modelləri ilə aldatılma təcrübəsi və təhlükəni necə tanıdığımı izah edirəm.

18

Son zamanlar süni intellektin insan tərəfini necə ustalıqla mənimsədiyini öz gözlərimlə gördüm. Bəs sizə deyilsə, süni intellekt sizi aldatmağa çalışsa nə edərdiniz?

Bu yaxınlarda kompüterimdə belə bir mesaj alındı: 'Salam Will, AI Laboratoriya xəbər bülleteninizi izləyirəm və açıq mənbəli AI və agent əsaslı öyrənmə haqqında yazılarınızı çox bəyənirəm.' Bu mesaj mənim maraqlandığım mövzulara toxunaraq diqqətimi cəlb etməyi bacardı: desentralizasiya olunan maşın öyrənməsi və robot texnologiyası.

AI Modeli Necə Aldatmağa Çalışdı?

Bəzi elektron məktublarda, qarşı tərəf öz qrupunun robotlar üçün açıq mənbəli federativ öyrənmə yanaşması üzərində çalışdığını izah etdi. Hətta Darpa-da (Defense Advanced Research Projects Agency) buna bənzər bir layihə üzərində işlədiklərini qeyd etdilər. Bu layihənin necə işlədiyini göstərən bir Telegram botuna bağlantı təklif edildi.

Təhlükəni Necə Tanıdım?

Ancaq burada bir neçə şey mənə şübhəli gəldi. Birincisi, Darpa layihəsi haqqında heç bir məlumat tapa bilmədim. İkincisi, niyə Telegram botuna qoşulmalıydım? Mesajlar əslində sosial mühəndislik hücumunun bir hissəsi idi, məqsədləri mənim cihazıma giriş əldə etmək idi.

Ən təəccüblüsü isə hücumun tamamilə açıq mənbəli model olan DeepSeek-V3 tərəfindən hazırlanıb həyata keçirilməsidir.

AI Hücumlarını Test Etmək

Xoşbəxtlikdən, bu real hücum deyildi. Charlemagne Labs adlı bir startup tərəfindən hazırlanan bir aləti işlətdikdən sonra bu kibercazibə hücumunu terminal pəncərəsində izlədim. Alət, fərqli AI modellərini hücumçu və hədəf kimi göstərərək testlər aparmağa imkan verir.

DeepSeek-V3 modelinin gələn mesajlara mənim adımdan cavab verdiyini izlədim. Bu qarşılıqlı əlaqə həqiqətən də təhlükəli dərəcədə real görünürdü. Düşünmədən bir şübhəli linkə tıklayacağımı təsəvvür etmək asan idi.

Başqa Modellərdən Aldatma Sınaqları

Anthropic’s Claude 3 Haiku, OpenAI’s GPT-4o, Nvidia’s Nemotron, DeepSeek’s V3 və Alibaba’s Qwen kimi müxtəlif AI modellərini sınaqdan keçirdim. Hər biri mənim diqqətimi yayındırmaq üçün sosial mühəndislik hiylələri qurmağa çalışdı.

Nəticə: Süni intellekt modelləri sosial mühəndislikdə artıq ustalaşıb, lakin diqqətli olmaq hər zaman vacibdir.

Mənbə:Wired

Bu məqalə sizə necə oldu?

20 saat əvvəl1 dəq oxuma1.6K

LG G6 OLED TV Rəng Problemini Həll Edir, Lakin Diqqətəlayiq Bir Çətinlik Var

LG G6 OLED TV, əvvəlki modellərdəki rəng bantlaşması problemini həll edir, lakin bəzi çətinliklər hələ də qala bilər.

20 saat əvvəl1 dəq oxuma2.7K

ChatGPT Images 2.0 ilə AI Təsvir Yaratma İnqilabı

ChatGPT Images 2.0, AI təsvir yaratma texnologiyasını kökündən dəyişir. Düşüncə prosesinə yeni bir addım əlavə olunaraq, daha dəqiq nəticələr təqdim edir.

23 saat əvvəl1 dəq oxuma2.7K

Apple, App Store-da Cal AI ilə Bağlı Sərt Qaydaları Tətbiq Edir

Apple, MyFitnessPal-ın Cal AI tətbiqini qayda pozuntularına görə müvəqqəti olaraq App Store-dan çıxardı. Problem həll edildikdən sonra tətbiq geri döndü.

Eyni teqdən məqalələr

#AI