Il caso Bikinioff e la maturità che manca al progresso
Il caso Bikinoff è parente stretto delle discussioni intorno a ChatGPT, e ne evidenzia il tema principale. Ovvero se la tensione dell’umanità alle “sorti umane e progressive”, così forte da urlare contro i garanti esigendo di avere l’ultima novità e subito possa e debba incontrare il limite della maturità.
Non sempre quello che è possibile è morale. E non sempre è lecito, come hanno scoperto loro malgrado le vittime di “bikinioff”.
Il caso Bikinioff
Parliamo di Bikinoff, piattaforma che grazie alle meraviglie degli algoritmi di generazione immagini promette sostanzialmente di “spogliare le donne”. Erede 2.0 in salsa Midjourney degli “occhiali SAME GOVJ” per vedere attraverso i vestiti, anche in questo caso ha il trucco.
Ricordate i fotomontaggi dove la testa di qualcuno viene incollata su un corpo ben più aitante? Bikinioff fa esattamente questo, ma coi sistemi di generazione digitale di immagini: cerca corpi nudi compatibili con le immagini in bikini che gli vengono dati in pasto e scambia i volti in modo da generare deepfake, nudi falsi più veri del vero.
Nasce come divertimento, ma il divertimento è ben poco se usi foto di persone non consenzienti o, peggio, di minori. Basta una foto di una compagna di classe scattata in piscina o sulla spiaggia e con due click puoi ottenere scatti erotici da lei non voluti e rovinarle la vita. Anche se non si voleva davvero farlo, anche se era uno scherzo, un “gioco”.
Cosa che hanno scoperto due quattordicenni scopertisi, e probabilmente senza comprendere il perché, indagati per produzione di materiale pedopornografico basato su loro coetanee e che la presenza di almeno 27 casi simili dimostra star diventando un’emergenza.
Come per molti “giocattoli nuovi” usare Bikinioff è assurdamente facile: compri dei “crediti” con Paypal o Bitcoin, dai in pasto al “bot”, al sistema automatico la foto di una coetanea e ottieni un fotomontaggio tale da rovinarle l’esistenza per sempre.
I guai dell’AI
Lungi dal demonizzare le intelligenze artificiali, va comunque ricordato che siamo tutti bambini diabetici davanti ad un negozio di caramelle senza nessun adulto a ricordarci che ingozzarci potrebbe esserci fatale.
Abbiamo già visto come sistemi di generazione di immagini abbiano creato autentici “propagandisti virtuali” pronti a schierarsi nel conflitto Ucraino dando volti credibilissimi alle fake news delle “fonti russe”. I “giornalisti” Irina Kerimova e Vladmir Bondarenko, ma anche gli “immortali” e battaglieri fratelli Sasha e Masha, tutti foto di lussi (dall’improbabile numero di dita per mano, tallone di Achille delle AI) e propaganda.
Ma non solo volti, anche contenuti: una intelligenza artificiale può creare teorie del complotto sorprendentemente ben redatte e dare una voce a personaggi a cui ha già fornito un volto.
Può creare un universo di falsità più vero del vero, ed adesso anche generare DeepFake.
Viviamo in un mondo in cui il più povero di mezzi tecnologici con due spiccioli può creare un video di Zelensky che invita gli Ucraini alla resa, o spogliare virtualmente un’amichetta.
O creare foto verosimili di Assange e Trump con cui manipolare l’opinione pubblica.
Niente impedisce che in un futuro un fidanzato geloso possa vendicarsi di essere stato lasciato usando una AI per creare nudi convincenti della partner e diffonderli a persone che non avrebbero modo per identificare la fake senza un aiuto specifico del Fact Checking.
Abbiamo sostanzialmente liberato il Genio dalla Bottiglia senza modo di decidere a quanti desideri fermarlo e comprendere come gli stessi saranno usati.
Sarà una difficile stagione per il fact checking, e per la verità stessa.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.