Una mossa per combattere il continuo proliferare di clip fasulle o manipolate in vista delle presidenziali 2020
Twitter segnalerà i video deepfake, una nuova regola per affrontare il diffondersi delle clip fake e manipolate. La proposta è contenuta in una bozza di policy pubblicata dal social sul proprio blog. E’ evidente che in vista delle elezioni presidenziali statunitensi del novembre 2020, le piattaforme sociali sono sotto pressione per contrastare la minaccia dei media manipolati, i deepfake, che usano l’intelligenza artificiale per creare video realistici in cui una persona sembra dire o fare qualcosa che in realtà non fa.
I ‘deepfakes’, video falsi resi indistinguibili dagli originali grazie all’intelligenza artificiale, sono considerati un pericolo ad esempio se utilizzati per diffondere false informazioni sui politici in prossimità di elezioni. Il 98% di quelli censiti in rete, in uno studio pubblicato recentemente, riguarda finora soprattutto donne inserite in video porno. Le regole proposte da Twitter, che ha lasciato fino al 27 novembre la possibilità di commento agli utenti, prevedono che il social inserisca una nota ai tweet che contengono deepfake, e avvertano gli utenti prima che la condividano. I video sarebbero rimossi soltanto se considerati minacciosi per l’incolumità fisica di qualcuno o se possono portare a ‘danni gravi’.
Why are we doing this?
1️⃣We need to consider how synthetic media is shared on Twitter in potentially damaging contexts.
2️⃣We want to listen and consider your perspectives in our policy development process.
3️⃣We want to be transparent about our approach and values.— Twitter Safety (@TwitterSafety) October 21, 2019
Twitter segnalerà i video deepfake: “Se si rivolge a Twitter per capire cosa succede nel mondo – si legge nel post – vogliamo che l’utente abbia un’idea del contesto del contenuto che sta vedendo. Tentativi deliberati di fuorviare o confondere le persone con media manipolati mettono a rischio l’integrità della conversazione“.