.
Come le aziende stanno rispondendo all’aumento dei contenuti AI
A causa di questi problemi, le grandi aziende tecnologiche stanno lavorando per migliorare l’autenticità e la provenienza dei media. Nell’ambito della conferenza annuale Build, Microsoft ha annunciato che i suoi strumenti Bing Image Creator e Designer disporranno di nuove funzionalità di provenienza dei media.
Gli utenti potranno verificare se le immagini o i video sono stati realizzati dall’IA utilizzando metodi crittografici che includono informazioni sulla provenienza dei contenuti.
Tuttavia, affinché questo sistema funzioni, è necessario che le diverse piattaforme accettino le specifiche della Coalition for Content Provenance and Authenticity(C2PA).
Allo stesso modo, Meta ha rilasciato uno strumento chiamato Meta Video Seal, in grado di aggiungere watermark invisibili ai video clip realizzati dall’IA. Questo strumento open-source è destinato a funzionare senza problemi con il software esistente, rendendo più facile trovare i contenuti realizzati dall’IA. Video Seal promette di essere resistente alle modifiche più comuni, come la sfocatura e il ritaglio, a differenza delle vecchie tecnologie di watermarking che avevano problemi con la compressione e la manipolazione dei video.
Problemi e limiti
Anche con questi miglioramenti, ci sono ancora problemi nel far sì che molte persone utilizzino queste tecnologie. Molti sviluppatori potrebbero esitare a passare dalle soluzioni proprietarie esistenti alle opzioni open-source come Video Seal.
Meta ha in programma di organizzare workshop durante le principali conferenze sull’intelligenza artificiale e di creare una classifica pubblica che metta a confronto i diversi metodi di watermarking, al fine di convincere un maggior numero di persone a collaborare.
Inoltre, i metodi di watermarking di cui disponiamo oggi non sono sempre abbastanza forti o efficaci quando si tratta di contenuti video.
Due approcci principali per combattere i contenuti generati dall’IA
Nella lotta contro i contenuti generati dall’intelligenza artificiale, sono emerse due strategie distinte:
- Watermarking (approccio preventivo):
- Funziona aggiungendo firme invisibili ai contenuti al momento della loro creazione.
- Agisce come un certificato digitale che indica “questo è stato creato dall’IA”.
- Strumenti come Meta Video Seal e le funzioni di provenienza di Microsoft rappresentano questo approccio.
- Il vantaggio principale è l’identificazione immediata dei contenuti AI
- Strumenti di rilevamento (approccio analitico):
- Analizzano i contenuti esistenti per determinare se sono stati generati dall’intelligenza artificiale.
- Cerca schemi e caratteristiche tipiche dei contenuti creati dall’intelligenza artificiale.
- Particolarmente utile per i contenuti non contrassegnati al momento della creazione.
- Questi strumenti costituiscono la nostra seconda linea di difesa
Entrambi gli approcci sono necessari perché si completano a vicenda: il watermarking impedisce l’uso improprio, mentre gli strumenti di rilevamento aiutano a identificare i contenuti non contrassegnati.
Strumenti e tecnologie di rilevamento
I contenuti generati dall’intelligenza artificiale possono essere individuati in modi diversi dalle sole tecnologie di watermarking. I nuovi strumenti di rilevamento utilizzano algoritmi complessi per esaminare sia i contenuti testuali che le immagini.
- Gli algoritmi di deep learning sono utilizzati dall’IA per trovare modelli nel testo generato dall’IA.
- GPTZero analizza le strutture linguistiche e le frequenze delle parole per distinguere i contenuti scritti dagli esseri umani da quelli creati dalle macchine.
- CopyLeaks utilizza gli N-grammi e i confronti della sintassi per trovare piccoli cambiamenti nel linguaggio che potrebbero essere segni di paternità dell’IA.
Questi strumenti dovrebbero fornire agli utenti opinioni accurate sulla veridicità dei contenuti, ma la loro efficacia può variare molto.
In conclusione
Con il progredire dell’IA generativa, la protezione dell’autenticità digitale diventa sempre più cruciale. Microsoft e Meta sono all’avanguardia con standard innovativi per l’autenticità dei contenuti e la verifica della provenienza dei media.
Per combattere efficacemente i deepfake, è necessaria l’adozione di questi strumenti da parte di tutto il settore e una maggiore collaborazione tra le aziende tecnologiche. L’integrità futura dei contenuti digitali dipende dall’evoluzione delle tecnologie di rilevamento, che devono essere più veloci degli inganni generati dall’intelligenza artificiale.
In effetti, abbiamo recentemente descritto come YouTube stia adottando misure simili, introducendo nuovi strumenti di rilevamento dell’IA per i creatori e i marchi. Il loro approccio comprende l’identificazione vocale sintetica e le tecnologie di rilevamento dei volti generate dall’IA, dimostrando ulteriormente come le principali piattaforme stiano lavorando per proteggere l’autenticità dei contenuti nell’era dell’IA.