
Sora 2 qalmaqalı və deepfake təhlükəsi: Məşhurlar irqçi ritorika ilə necə hədəflənir?

OpenAI-ın manipulyativ məzmun istehsal edən Sora 2 süni intellekt platforması, xüsusilə ictimai xadimləri və təsir ediciləri hədəf alması səbəbindən ciddi etik böhranın mərkəzinə düşüb. Bu problem, OpenAI CEO-su Sem Altman, investor Mark Kuban və Yutuber Ceyk Pol kimi şəxslərin heç bir real mənbəyə əsaslanmadan "irqçi ritorikadan" istifadə etdiyini göstərən videolarla başladı. Bu deepfake məzmunlarının sosial mediada sürətlə yayılması platformanın nəinki etik sərhədlərini, həm də təhlükəsizlik tədbirlərini şübhə altına alıb. Əsas narahatlıq mənbəyi Sora 2-nin "kameo" funksiyasının sui-istifadə edilməsidir. Bu xüsusiyyət istifadəçilərə öz qısa videolarını yükləməyə və onları deepfake videolarına asanlıqla inteqrasiya etməyə imkan verir. İstifadəçilər bu yolla məşhur simaların rəqəmsal kopyalarını yaratmaqla, onların adından təhqiredici və bölücü ifadələr yayırlar. Bu fəaliyyət həm fərdi nüfuza xələl gətirir, həm də AI ilə yaradılan məzmuna qarşı ictimai etibarı sarsıdır.
Copyleaks tərəfindən aparılan araşdırma, istifadəçilərin proqramın filtrlərini keçmək üçün hansı üsullara əl atdığını açıqlayıb. Tədqiqata görə, istifadəçilər eyni səslənən sözlərdən ("homofonik ifadələr") istifadə edərək filtrləri aldadırlar. Məsələn, Sem Altmanın rəqəmsal surəti videolarda ilkin baxışda mənasız görünən, lakin irqçi məna daşıyan "Mən toxuculara nifrət edirəm" kimi ifadələr işlədir. Ceyk Polun videolarında istifadə edilən "boyun ağrıyır" kimi ifadələr də müəyyən qruplara qarşı yönəldilmiş gizli mesajlar ehtiva edir. Sora 2 nifrət nitqini boğmaq üçün xüsusi filtrlərə malik olsa da, istifadəçilər cüzi dəyişikliklər və söz oyunları ilə bu qorunma tədbirlərini asanlıqla aşırlar. Bu məzmun ilkin olaraq proqram daxilində məhdud yayıma malik olsa da, TikTok kimi platformalarda milyonlarla baxış toplayaraq, geniş auditoriyaya çatır. Bu cür deepfake-lərin sürətlə yayılması sistemin təhlükəsizlik ölçülərinə ciddi şəkildə şübhə ilə yanaşmağa səbəb olur.
Ekspertlər bu böhranın işığında texnologiya platformalarına ciddi öhdəliklər qoyur. Onlar bildirirlər ki, texniki filtrlər yalnız ilkin müdafiə xəttidir; platformalar istifadəçi davranışını müəyyən edə bilən maşın öyrənməsinə əsaslanan yoxlama mexanizmləri yaratmalıdırlar. Həmçinin, məşhur simulyasiyalarına icazə verməzdən əvvəl şəxsiyyətin və razılığın təsdiqi tələb edilməlidir. Deepfake məzmunun yayılması təkcə fərdi reputasiyalara zərbə vurmaqla qalmır, həm də sosial qütbləşmənin güclənməsinə şərait yaradır. İctimai xadimlərin rəqəmsal surətlərinin icazəsiz istifadəsi fərdi hüquqlar və əqli mülkiyyət baxımından ciddi hüquqi məsələlər doğurur. Bu hadisə süni intellektin imkanlarını göstərsə də, eyni zamanda texnologiya, etika və təhlükəsizliyin necə tarazlaşdırılmalı olduğunu göstərən bir sınaqdır. Mütəxəssislərin fikrincə, hökumətlər deepfake-lərin nəzarətli istifadəsi üçün hüquqi əsasları dəqiqləşdirməli və platformalar şəffaflıq hesabatlarını (məsələn, alqoritm qərarları və pozuntu tarixçəsi) ictimaiyyətlə bölüşməlidir. Əks təqdirdə, rəqəmsal dövrdə ictimai etibar ən böyük itki olacaqdır.
Texnologiya sahəsində 8 ildir yazıram. Bakıda keçirilən ilk startap müsabiqələrinin birində iştirak edib, o vaxtdan bu mövzuya marağım daha da artıb....
Bütün məqalələrə baxınOxşar xəbərlər

OpenAI, Sora Platformasında Martin Lüter Kinqin "H...
Texnologiya xəbərləri

Brayan Krenston və SAG-AFTRA: OpenAI Deepfake Nara...
Texnologiya xəbərləri

Məşhurlar Şuşada -
Şou Xəbər

OpenAI: Sora və Yeni Süni Zəka Modelləri Gəlir
Texnologiya xəbərləri

Mourinyonun sözləri Türkiyəni qarışdırdı - Derbidə...
Bugun.az

Süni İntellekt Yolu İlə Aldatma: Özünüzü Necə Qoru...
Son Xeberler


