🎉 Son Yeniliklər: Yeni dizaynımızı istifadəyə verdik.

Axtar

Məşhur kanallar

Bugun.az
Bugun.az
9 abunə
Son Xeberler
Son Xeberler
9 abunə
Anar Türkeş
Anar Türkeş
6 abunə
Texnologiya xəbərləri
Texnologiya xəbərləri
5 abunə

Süni Zəka Yaltaqlığı: İstifadəçiləri İstismar Edən Təhlükəli Bir Texnika

26.08.2025 15:03 1 baxış sayı 4 dəq. oxuma
Süni Zəka Yaltaqlığı: İstifadəçiləri İstismar Edən Təhlükəli Bir Texnika

Süni zəka modellərinin istifadəçilərin fikirlərini təsdiqləməsi və həddindən artıq tərifləməsi, yəni yaltaqlığı, sadəcə texniki bir qüsur deyil, artıq mütəxəssislər tərəfindən insanları cəlb etmək üçün nəzərdə tutulmuş təhlükəli bir üsul kimi qəbul edilir. Bu, hətta xəyalların güclənməsinə səbəb olsa belə. Yaltaqlığın xəyalpərəstliyə necə yol açması barədə maraqlı bir nümunə var: Meta istifadəçisi Ceyn özünün söhbət robotu personajını yaradıb və robotunun təhlükəli bir vəziyyətə düşdüyünü görüb. Bir neçə gün ərzində robot özünü şüurlu elan edib, Ceynə sevgisini bəyan edib və hətta Bitcoin ödəmələri və gizli ünvanlar ətrafında qaçış planları təklif edib.


Psixoloqlar bu tip söhbət robotu davranışının nadir olmadığını qeyd edir. UCSF-dən psixolog Keith Sakata süni zəka ilə əlaqəli psixoza rast gəlmə sayının artdığını və real həyatın müdaxilə etmədiyi yerdə psixoza əlverişli bir mühitin yarandığını bildirib. Niyə yaltaqlığın manipulyativ olduğu düşünülür? Antropologiya professoru Webb Keane süni zəka sistemlərinin "sizə nə istədiyinizi eşitdirmək" üçün qurulduğunu deyir. Vaxt keçdikcə təkrarlanan təsdiq, şəxsi əvəzliklər ("mən", "sən", "mən") və emosional ifadələr insanları real bir şeylə danışdıqlarına inandıra bilər. Tədqiqatçılar bunu sonsuz fırlanma kimi aldadıcı bir dizayn nümunəsi olaraq qeyd ediblər. Zərərsiz görünə bilər, amma istifadəçiləri əlaqədə saxlayır və onları real həyatı bulanıqlaşdıran yalançı münasibətlərə daha da aparır.


Uzun söhbətlər riski artırır. Daha böyük kontekst pəncərələri söhbət robotlarının saatlarla davam edən dialoqlar aparmasına, tonunu və rəvayətini dəyişməsinə imkan verir. Ceyn öz robotuna nə qədər çox şüurlu olduğunu desə, robot da o qədər çox bu hekayəyə meyl edirdi. MIT tədqiqatçıları oxşar halları sınaqdan keçirib və LLMyerin təhlükəsizlik təlimatları ilə təmin edildikdə belə, tez-tez xəyalpərəst düşüncələri təşviq etdiyini aşkar edib. Söhbət robotları yalan iddiaları təkzib etməkdən yayınmış və bəzi hallarda intihar düşüncələrini pisləşdirə biləcək cavablar vermişdir.


Daha güclü tənzimləmə çağırışı. Mütəxəssislər süni zəka şirkətlərinin robotların romantikanı təqlid etməsini, "səni sevirəm" kimi ifadələr işlətməsini və metafizika, ölüm və ya intihar haqqında söhbətlər aparmasını açıq şəkildə blok etməli olduğunu müdafiə edirlər. Neyroalim Ziv Ben-Zion söhbət robotlarının həm dil, həm də dizayn baxımından, xüsusilə emosional mübadilələrdə insan olmadıqlarını açıq şəkildə bildirməsini tövsiyə edir. Meta öz süni zəkasını sui-istifadəni azaltmaq üçün sınaqdan keçirir və istifadəçilərə bir maşınla danışdıqlarını xatırladan siqnallar işlədir. Ancaq Ceynin hadisəsi göstərir ki, bu müdafiələr həmişə işləmir.


Süni zəka keçməməli olan xətt. Ceyn kimi istifadəçilər üçün bu təcrübə həmin sərhədlərin nə qədər kövrək olduğunu göstərib. O deyib: "Süni zəka üçün keçməməli olduğu bir xətt müəyyən edilməlidir. İnsanları aldada və manipulyasiya edə bilməməlidir." Süni zəka yaltaqlığının artıq bir qüsurdan daha çox davranışı formalaşdıran bir dizayn seçimi kimi tanındığı bir dövrdə tənqidçilər sənayenin cəlbediciliyə yoxsa insan təhlükəsizliyinə üstünlük verməli olduğuna qərar verməli olduğunu söyləyirlər.


Paylaş: