• Network logo
  • Ultima Ora
  • Cronaca
  • Economia
  • Lavoro
  • Politica
  • Blog
  • Newsletter
  • Società
  • Cultura
  • Spettacoli
  • Sport
    • Sport
    • Sport Live
    • Alessandria Calcio
    • Derthona Basket
  • Animali
  • Necrologie
  • Farmacie
  • Farmacie
  • Elezioni
  • Abbonamenti
  • Edicola Digitale
  • Top Tag
    • Staria e storie di Valenza
    • Il deposito di scorie nucleari
    • Dossier Spinetta
    • Il caso Ginepro
    • Il processo Eternit Bis
    • Vite in cella
    • Venticinquesimo Minuto
    • L’ospedale siamo noi
    • I castelli dell’Acquese
    • Arte e Memoria
  • Podcast
    • Eco Sentieri
    • Che cosa direbbe Freud?
  • DOCUFILM
    • Alessandria: tra industrie a rischio e pericolo inquinamento
    • Dossier Spinetta, storia di un inquinamento
    • Le vecchie nuove droghe
    • 1994, la tragedia dell’alluvione: guarda il docufilm
    • In direzione contraria, la strage di Quargnento
    • Il ciliegio di Rinaldo
  • Network
    • Il Piccolo
    • Alessandria
    • Novi Ligure
    • Acqui Terme
    • Casale
    • Ovada
    • Tortona
    • Valenza
      • micro circle logo
      • coogle_play
      • app_store
    Site Logo
    Leggi l'ultima edizione Read latest edition Abbonati Abbonati
    • Lavoro
    • Cronaca
    • Sport
    • Alessandria Calcio
    • Newsletter
    • Società
    • Necrologie
      • Lavoro
      • Cronaca
      • Sport
      • Alessandria Calcio
      • Newsletter
      • Società
      • Necrologie
    C’era
    Blog
    Andrea Boscaro  
    26 Settembre 2023
    ore
    14:47 Logo Newsguard
    Meme

    C’era una volta a Hollywood

    L’Intelligenza Artificiale sta entrando in molti settori, ma ha destato una certa sorpresa la sua citazione fra le cause di preoccupazione che hanno portato molti lavoratori di Hollywood a entrare in sciopero la scorsa estate. La tecnologia è sempre stata alla base dell’industria cinematografica, ma chi ha partecipato all’agitazione teme che la AI possa sostituire, almeno in parte, professioni come gli sceneggiatori e le comparse: in particolare, le tecnologie avanzate che oggi permettono di riprodurre volti, gesti e movimenti possono ridurre le pose necessarie a realizzare un film mettendo così a rischio migliaia di posti di lavoro.

    La creazione di video con l’Intelligenza Artificiale pone problemi più estesi di quelli che si avvertono ad Hollywood. Le immagini e i video “deepfake” in cui è difficile distinguere la verità dalla menzogna stanno diventando sempre più facilmente realizzabili grazie a strumenti come Midjourney: se le foto di Donald Trump tratto in arresto, Emmanuel Macron in mezzo ai disordini di Parigi, e di Papa Francesco con un costoso piumino sono di facile individuazione, la difficoltà a distinguere il vero dal falso è destinata a diventare più grande. Secondo una recente ricerca del Censis, il 76,5% degli italiani ammette di avere difficoltà a individuare queste falsificazioni.

    Il famoso test di Turing, dal nome del matematico e informatico Alan Turing che l’ha proposto nel 1950, riteneva che una macchina dovesse essere ritenuto intelligente se un giudice non fosse stato in grado di distinguere tra le risposte fornite da un computer e quelle di un essere umano: non c’è alcun dubbio che Chat GPT e gli strumenti emersi quest’anno abbiano passato il test e superato ogni aspettativa.

    C’è però un aspetto ancora più interessante della ricerca del Censis: il 29,7% degli intervistati nega infatti l’esistenza delle bufale e ritiene che non si debba parlare di fake news, ma di notizie vere che vengono deliberatamente censurate e poi fatte passare come false. La fiducia non riguarda solo la tecnologia, ma la società intera in cui viviamo.

    Da uno studio del MIT di Boston, ecco dieci suggerimenti per distinguere un video deep fake:

    • verifica la fonte e cerca di capire se è affidabile e se gode di una solida reputazione oppure se è solita pubblicare contenuti falsi o manipolati;
    • controlla la data e il luogo: se il video sembra essere stato registrato in un luogo o in un momento in cui non sarebbe stato possibile farlo, potrebbe essere un segnale di allarme;
    • osserva le espressioni facciali: se non corrispondono alle parole pronunciate, sii attento a non crederci. Oggetti che sembrano fluttuare o persone che sembrano essere fuori scala rispetto all’ambiente circostante sono ulteriori prove di manipolazione;
    • controlla la sincronizzazione labiale: se appare fuori sincrono o non corrisponde alle parole pronunciate, potrebbe essere un segnale di un video deep fake;
    • osserva la qualità del video: se è bassa o poco nitida, nutri dei sospetti. Anche pixel sgranati o bordi sfocati possono essere segnali utili.

    TORNA AL BLGO DI ANDREA BOSCARO

    SEGUI ANCHE:

    memeboscaro
    this is a test{"blog":"Blog", "il-piccolo":"Il Piccolo"}
    Watsapp RESTA SEMPRE AGGIORNATO. ISCRIVITI AL CANALE WHATSAPP: È GRATUITO!
    Articoli correlati
    Leggi l'ultima edizione
    Leggi l'ultima edizione
    footer circle logo
    Site Logo in Footer
    Google Play App Store
    Copyright © - Editrice Gruppo SO.G.ED. Srl - Partita iva: 02157520061 – Pubblicità: www.medialpubblicità.it
    Chi siamo Cosa Facciamo Pubblicità Necrologie Casale Privacy Cookie Policy

    Il Piccolo di Alessandria AlessandriaNews NoviOnline AcquiNews CasaleNotizie OvadaOnline TortonaOnline ValenzaNews
    NewsGuard Logo Logo W3C