ACNEWS

Pornó miatt tiltották le Taylor Swiftet

Taylor Swift Fotó: Youtube
Taylor Swift Fotó: Youtube
Az énekesnőről annyi pornókép jelent meg az X-en (korábban Twitter), hogy kénytelenek voltak egyszerűen letiltani a nevét.
Hirdetés
Ad image

Taylor Swift keresésekor az oldalon a következő üzenet jelenik meg: „Valami elromlott. Próbáld meg újratölteni”.

A hét elején ugyanis mesterséges intelligencia által generált pornóképek jelentek meg az énekesnőről az oldalon. Némelyik vírusként terjedt, és több milliószor nézték meg, ami nem kis bosszúságot okozott az amerikai hatóságok és az énekesnő rajongói körében.

A hamis képeket megosztó posztokat és fiókokat a rajongói megjelölték, és a „védjük meg Taylor Swiftet” feliratot használva valódi képekkel és videókkal töltötték fel a platformot.

A fotók hatására az X, közleményt adott ki, amelyben azt írta, hogy a nem beleegyezésen alapuló meztelenség közzététele a platformon „szigorúan tilos”.

„Zéró toleranciát alkalmazunk az ilyen tartalmakkal szemben” – állt a közleményben. „Csapataink aktívan eltávolítják az összes azonosított képet, és megteszik a megfelelő lépéseket a felelős fiókokkal szemben”.

Nem világos, hogy az X mikor kezdte el blokkolni a Swiftre vonatkozó kereséseket az oldalon, illetve hogy az oldal korábban más közszereplőkre vagy kifejezésekre vonatkozó kereséseket is blokkolt-e.

A deepfake-ek mesterséges intelligenciát használnak arra, hogy valakiről az arc vagy a test manipulálásával videót készítsenek. Egy 2023-as tanulmány szerint 2019 óta 550%-kal nőtt a hamisított képek készítése, amit az MI megjelenése táplál – írja a BBC.

Jelenleg nincsenek törvények a deepfake képek megosztása vagy készítése ellen, bár állami szinten történtek lépések a probléma kezelésére. Az Egyesült Királyságban például a deepfake pornográfia megosztása az online biztonságról szóló törvény részeként 2023-ban illegálissá vált.

Facebook
Twitter
Reddit
Telegram
Email
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés
Hirdetés