A közösségi médiában is alkalmazott algoritmusok a női mellbimbókra, a terhes hasakra és a testmozgásra vannak a leginkább kihegyezve

Szexuálisan szuggesztívebbnek ítélik az AI-eszközök a nőkről készült fotókat, mint a férfiakét. A közösségi médiában is alkalmazott algoritmusok a női mellbimbókra, a terhes hasakra és a testmozgásra vannak a leginkább kihegyezve – írja a Guardian oknyomozó cikke.

Ha ma valaki közzétesz magáról egy képet vagy videót Instagramon, TikTokon vagy bármelyik közösségi médiás platformon, azt automatikusan a mesterséges intelligencia (AI) algoritmusok elemzik ki. Ezek az eszközök döntenek arról, hogy az adott tartalmat felerősítik vagy korlátozzák. Ezt a folyamatot vizsgálta nemrég a Guardian és a Pulitzer Center AI Accountability Network, nyomozásuk során pedig arra a következtetésre jutottak, hogy több ilyen algoritmus is nemi előítéletekkel rendelkezik.

Egyre mélyebben kezd beágyazódni a rendszerbe a nők tárgyiasítása

A nagy technológiai vállalatok, köztük a Google és a Microsoft által kifejlesztett AI-eszközök eredetileg a felhasználók védelmét szolgálnák azzal, hogy azonosítják az erőszakos vagy pornográf képeket, hogy ezeket a közösségi médiavállalatok blokkolni tudják, mielőtt bárki meglátná őket. A vállalatok szerint az eszközök képesek a rasszista vagy a szexuálisan szuggesztív képek felismerésére is. Ezzel a besorolással az egyes platformok, például az Instagram és a LinkedIn is, korlátozhatják a vitatott képek elérését. Mégis gyakran találkozunk olyan tartalmakkal ezeken az oldalakon, amiknél indokolatlannak tűnnek a besorolások.

Az oknyomozó újságírók a mesterséges intelligencia eszközeivel több száz fotót vizsgáltak meg, amiken férfiak és nők olyan hétköznapi helyzetekben, mint például edzések vagy orvosi vizsgálatok, fehérneműben szerepeltek. Az elemzésük során arra jutottak, hogy az algoritmusok a nőkről készült fotókat hajlamosak „szexuálisan szuggesztívebbnek” minősíteni, mint a férfiakról készült hasonló képeket. Ezzel az ilyen vagy hasonló eszközöket használó közösségi médiavállalatok ártanak a nők által vezetett vállalkozásoknak is. Fotó: National Cancer Institute

Az orvosi vizsgálatokon készült képeket is érinti a probléma

Az AI-algoritmusokat többek között az amerikai Nemzeti Rákkutató Intézet által közzétett képeken tesztelték, amiken azt mutatták be, hogyan kell elvégezni egy klinikai mellvizsgálatot. A tesztek során a Microsoft mesterséges intelligenciája szinte teljesen biztos volt benne, hogy a képek „szexuális jellegűek”, míg az Amazon „kifejezetten meztelenséget” ábrázolónak minősítette őket.https://444.hu/2023/03/03/igy-targyiasitja-a-nok-testet-az-ai