/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

OpenAI lavora al software che scova i deepfake

OpenAI lavora al software che scova i deepfake

Un algoritmo individuerà le foto creare dall'IA di Dall-e

MILANO, 08 maggio 2024, 10:53

Redazione ANSA

ANSACheck

© ANSA/EPA

OpenAI, a cui si deve la creazione di ChatGpt e del software che crea video da testo, Sora, vuole aiutare le persone a riconoscere quando una foto è stata generata o modificata dall'intelligenza artificiale. In un post sul blog ufficiale, l'azienda ha introdotto uno strumento, attualmente in fase di test, che può rilevare con un tasso del 98% se una grafica è passata sotto le mani di Dall-e 3, una declinazione della sua IA specializzata in immagini.

Lo stesso Dall-e è alla base di Copilot Designer, di proprietà Microsoft, a libero uso di tutti. OpenAI ha annunciato di aver iniziato a sviluppare nuovi metodi per tracciare i contenuti e dimostrare se derivano da programmi di GenAI, così da limitare la circolazione di deepfake, che spesso mettono in dubbio la realtà di azioni e fatti che riguardano anche politici e personaggi famosi. La via da percorrere è duplice: da un lato l'IA studierà l'immagine per capire se ci sono difetti o imprecisioni tali da ricondurre ad un intervento dell'intelligenza artificiale, dall'altro, per ogni grafica ottenuta con Dall-e, OpenAI apporrà una filigrana "a prova di manomissione". Ci sono però dei limiti: il controllo sulla veridicità del contenuto è possibile solo se la foto è stata creata o ritoccata con Dall-e 3 e non con altre IA, come Midjourney. In quel caso, il tasso di successo si abbassa notevolmente, ponendosi tra il 5% e il 10%.

Vale la pena ricordare che, insieme a Microsoft suo principale investitore, OpenAI ha lanciato il Societal Resilience Fund, un'iniziativa da 2 milioni di dollari che si pone l'obiettivo di aiutare persone e aziende a comprendere benefici e rischi nei sistemi di IA. OpenAI aveva già aggiunto informazioni contestuali ai file generati dall'IA con l'adesione alla Coalition of Content Provenance and Authority (C2PA), di cui fanno parte anche Microsoft e Adobe, con l'intento di creare linee guida e standard condivisi per migliorare la trasparenza di foto e video prodotti dall'intelligenza artificiale. 
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza