web analytics
11:11 Dubbele getallen
Maatschappij & PsycheWetenschap & Ontwikkeling

Instagram profiteert van apps die mensen uitkleden

AI-beeldgeneratoren die beweren beroemdheden en willekeurige vrouwen te kunnen ‘uitkleden’ zijn niets nieuws, maar nu zijn ze opgemerkt in advertenties waar inkomsten mee worden gegenereerd op Instagram.

Zoals  404 Media  meldt , heeft Meta – het moederbedrijf van Facebook en Instagram – in zijn advertentiebibliotheek verschillende betaalde berichten opgenomen waarin reclame wordt gemaakt voor zogenaamde ‘nudify’-apps, die AI gebruiken om deepfaked naaktfoto’s te maken van aangeklede foto’s.

In één advertentie werd een foto van Kim Kardashian getoond naast de woorden ‘kleed elk meisje gratis uit’ en ‘probeer het’. Op een andere foto staan ​​twee door AI gegenereerde foto’s van een jong uitziend meisje naast elkaar: één waarop ze een shirt met lange mouwen draagt, terwijl op een andere haar topless lijkt te verschijnen, met de woorden ‘elke kleding verwijderen’ die haar borsten bedekt.

De afgelopen zes maanden hebben dit soort apps ongelukkige bekendheid gekregen nadat ze werden gebruikt om nepfoto’s van tienermeisjes op Amerikaanse scholen en in Europa te genereren , wat aanleiding gaf tot onderzoeken en wetsvoorstellen gericht op het beschermen van kinderen tegen dergelijk schadelijk AI-gebruik. Zoals Vice eind vorig jaar meldde , zeiden studenten in Washington dat ze de ‘uitkleed’-app hadden gevonden die ze gebruikten om nepfoto’s van hun klasgenoten te maken via TikTok-advertenties.

 

Verwijderingsverzoek

Uit het onderzoek van  404 bleek dat veel van de advertenties die de verslaggevers tegenkwamen, uit de Meta Ad Library waren verwijderd tegen de tijd dat ze deze bekeken, terwijl andere pas werden verwijderd nadat een woordvoerder van het bedrijf op het bestaan ​​ervan was gewezen.

“Meta staat geen advertenties toe die inhoud voor volwassenen bevatten”, zei de woordvoerder tegen de website, “en wanneer we advertenties identificeren die inbreuk maken, werken we er snel aan om deze te verwijderen, zoals we hier doen.”

Anderen waren echter nog steeds in de lucht toen  404 zijn verhaal publiceerde, wat suggereert dat Meta, net als bij zoveel inspanningen op het gebied van inhoudshandhaving, een geweldige aanpak hanteert om dit soort advertenties te verbieden, zelfs als er andere opduiken.

Afgelopen zomer  ontdekte het Futurisme dat Google zoekers gemakkelijk naar deepfake-porno stuurde, waarin niet alleen beroemdheden te zien waren die naaktfoto’s hadden gemaakt, maar ook van wetgevers, influencers en andere publieke figuren die niet instemden met dergelijk gebruik van hun afbeeldingen. Bij een vluchtige zoekopdracht toonde Google nog steeds ‘MrDeepFakes’, de grootste leverancier van dergelijke inhoud, eerst bij het zoeken naar ‘deepfake-porno’.

Tijdens het onderzoek  ontdekte 404 dat een van de apps in kwestie gebruikers ertoe aanzette een abonnementsgeld van $ 30 te betalen om toegang te krijgen tot de NSFW-mogelijkheden en uiteindelijk niet in staat was naaktfoto’s te genereren. Toch is het angstaanjagend dat dergelijke dingen überhaupt op Instagram worden geadverteerd, vooral gezien het feit dat 50 procent van de tieners, volgens een peiling van Pew van vorig jaar, nog steeds melding maakt van dagelijks gebruik van de app van Meta.

Meer over deepfakes: AI-aangedreven camera maakt foto’s van mensen, maar maakt ze onmiddellijk naakt

 

Bron

Je gaat hier niet aan ontkomen helaas.
Maar goed als men had gewild, dan had men dat met photoshop ook kunnen doen.
Dus ja? Voordeel is wel, mocht je ooit naaktfoto’s of video’s hebben gemaakt, dan kun je altijd zeggen dat het fake is toch?
🙂 Meevaller voor sommigen.

En als mens zo gefocust zijn op naakt, is ook wel erg sick hoor.
Kom op zeg.
Beetje fatsoen aub.

 

Gerelateerde artikelen

Back to top button
Close

Een Adblocker gedecteerd

AngelWings.nl wordt mede mogelijk gemaakt door advertenties ♥Support ons door je ad blocker uit te schakelen♥