{"id":54780,"date":"2024-03-08T13:43:05","date_gmt":"2024-03-08T13:43:05","guid":{"rendered":"https:\/\/kidslox.com\/guide-to\/ai-deepfakes\/"},"modified":"2024-03-11T14:03:48","modified_gmt":"2024-03-11T14:03:48","slug":"ai-deepfakes","status":"publish","type":"post","link":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/","title":{"rendered":"Deepfake AI: come possiamo proteggere i nostri figli?"},"content":{"rendered":"<p><span style=\"font-weight: 400;\">In un mondo in cui la tecnologia avanza rapidamente, i genitori devono affrontare nuove sfide nel proteggere i propri figli dalle minacce emergenti. Una di queste preoccupazioni \u00e8 l\u2019aumento dei deepfake generati dall\u2019intelligenza artificiale: media sintetici in grado di imitare le voci, le immagini e i video di persone reali con una precisione allarmante.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Immagina di ricevere una telefonata angosciante da tua figlia, che implora aiuto mentre pericolosi criminali la stanno rapendo.<\/span><a href=\"https:\/\/www.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"> <span style=\"font-weight: 400;\">Questo \u00e8 esattamente quello che \u00e8 successo a Jennifer DeStefano dell&#8217;Arizona nel gennaio 2023<\/span><\/a><span style=\"font-weight: 400;\">. Terrorizzata e nel disperato tentativo di salvare sua figlia, Jennifer ha ascoltato con orrore un uomo che minacciava di farle del male se non avesse inviato immediatamente i soldi.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ma ecco la svolta scioccante: la figlia di Jennifer non \u00e8 mai stata in pericolo. Si stava godendo al sicuro una gita sugli sci, completamente ignara della chiamata traumatica. La voce che Jennifer ha sentito non era affatto quella di sua figlia: era un deepfake incredibilmente realistico generato dall&#8217;intelligenza artificiale, creato da truffatori per estorcere denaro a genitori ignari.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sfortunatamente, la storia di Jennifer non \u00e8 un incidente isolato. Man mano che la tecnologia dell\u2019intelligenza artificiale diventa sempre pi\u00f9 sofisticata, i criminali stanno trovando nuovi modi per sfruttarla a scopo di lucro, spesso prendendo di mira le famiglie vulnerabili. Anche i membri del Congresso se ne stanno accorgendo<\/span><a href=\"https:\/\/www.dhs.gov\/sites\/default\/files\/publications\/increasing_threats_of_deepfake_identities_0.pdf\"> <span style=\"font-weight: 400;\">esplorare come i deepfake possano violare i diritti individuali e causare gravi danni.<\/span><\/a><\/p>\n<p><span style=\"font-weight: 400;\">Come genitori, \u00e8 fondamentale rimanere informati su queste minacce emergenti per proteggere noi stessi e i nostri figli. Diamo uno sguardo al mondo dei deepfake IA: cosa sono, come funzionano e, soprattutto, quali misure possiamo adottare per salvaguardare le nostre famiglie dal loro uso dannoso.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sebbene i rischi siano reali e preoccupanti, il nostro obiettivo \u00e8 fornirti conoscenze e strategie pratiche per navigare con sicurezza in questo nuovo panorama.<\/span><\/p>\n<h3><b>Cosa sono i Deepfake AI?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Al centro del fenomeno deepfake si trova una potente tecnologia chiamata AI generativa. In termini semplici, l\u2019intelligenza artificiale generativa si riferisce ad algoritmi di intelligenza artificiale in grado di creare nuovi contenuti \u2013 come immagini, video, audio o testo \u2013 sulla base di modelli appresi dai dati esistenti.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Per capire come funziona l\u2019intelligenza artificiale generativa, immagina un bambino che impara a disegnare. Mentre il bambino studia vari esempi di arte, inizia a riconoscere modelli comuni, come il modo in cui gli occhi, il naso e la bocca sono tipicamente disposti su un viso. Con la pratica, il bambino impara a combinare questi modelli in nuovi modi per creare i propri disegni unici.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">L\u2019intelligenza artificiale generativa funziona secondo un principio simile, ma su scala molto pi\u00f9 ampia. Analizzando grandi quantit\u00e0 di dati, questi algoritmi imparano a identificare e replicare modelli, consentendo loro di generare nuovi contenuti che imitano i dati originali con sorprendente realismo.<\/span><\/p>\n<h4><b>In che modo questi modelli di intelligenza artificiale prendono in giro le persone reali?<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Uno dei tipi pi\u00f9 popolari di intelligenza artificiale generativa si chiama<\/span><a href=\"https:\/\/developers.google.com\/machine-learning\/gan\/gan_structure\"> <span style=\"font-weight: 400;\">una rete avversaria generativa (GAN)<\/span><\/a><span style=\"font-weight: 400;\">. In un GAN, due modelli di intelligenza artificiale lavorano insieme in una sorta di competizione.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Un modello, chiamato<\/span><i><span style=\"font-weight: 400;\">Generatore<\/span><\/i><span style=\"font-weight: 400;\">, crea nuovi contenuti, mentre l&#8217;altro modello, noto come the<\/span><i><span style=\"font-weight: 400;\">discriminatore<\/span><\/i><span style=\"font-weight: 400;\">, cerca di distinguere tra il contenuto generato e gli esempi reali. Man mano che i modelli si ripetono, il generatore impara a creare contenuti sempre pi\u00f9 convincenti in grado di ingannare il discriminatore.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Puoi immaginare che questo sarebbe un potente strumento per espandere la tecnologia. Ma se applicati ai deepfake, gli algoritmi di intelligenza artificiale generativa possono analizzare rapidamente immagini, video e registrazioni audio reali di una persona per apprendere i modelli unici delle sue caratteristiche facciali, espressioni, movimenti e voce. L&#8217;IA quindi<\/span><i><span style=\"font-weight: 400;\">usi<\/span><\/i><span style=\"font-weight: 400;\"> queste informazioni apprese (come il bambino impara a copiare e disegnare immagini) per sintetizzare nuovi contenuti che imitano da vicino la persona originale.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, per creare un video deepfake, l&#8217;algoritmo AI potrebbe studiare le riprese del volto di una celebrit\u00e0 da pi\u00f9 angolazioni e in varie condizioni di illuminazione. Apprendendo la complessit\u00e0 dei tratti e delle espressioni facciali delle celebrit\u00e0, l&#8217;intelligenza artificiale pu\u00f2 quindi generare nuovi fotogrammi video che sostituiscono perfettamente il volto della persona originale con le sembianze della celebrit\u00e0.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gli algoritmi di intelligenza artificiale possono analizzare le registrazioni della voce di una persona per apprendere i modelli distinti del suo discorso, inclusi tono, intonazione, accento e manierismi. Con dati di addestramento sufficienti, l\u2019intelligenza artificiale pu\u00f2 quindi sintetizzare nuovi contenuti audio che suonano stranamente simili a quelli della persona originale che parla.<\/span><\/p>\n<h3><b>Quali sono i potenziali rischi dei deepfake per bambini e adolescenti?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Come genitori, il nostro istinto \u00e8 quello di proteggere i nostri figli dai pericoli, sia nel mondo fisico che in quello digitale. Tuttavia, con l\u2019aumento dei deepfake generati dall\u2019intelligenza artificiale, ci troviamo ad affrontare una nuova serie di sfide che possono avere gravi conseguenze per il benessere, lo sviluppo e persino la sicurezza dei nostri figli.<\/span><\/p>\n<h4><b>Esposizione a contenuti inappropriati, fuorvianti o disturbanti<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Man mano che la tecnologia deepfake diventa pi\u00f9 accessibile, \u00e8 pi\u00f9 facile che mai per i malintenzionati creare video, immagini o audio falsi che appaiano realistici in modo convincente.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Immagina, ad esempio, un bambino che si imbatte in un video deepfake che sembra mostrare la sua celebrit\u00e0 preferita impegnata in comportamenti espliciti o violenti. Oppure immagina un&#8217;immagine deepfake che ritrae un personaggio pubblico fidato che fa dichiarazioni false o provocatorie.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mentre gli adulti potrebbero essere in grado di vedere il contenuto per quello che \u00e8, i bambini potrebbero sentirsi confusi o turbati quando vedono l&#8217;inaspettato da parte di personaggi fidati.<\/span><\/p>\n<h4><b>Difficolt\u00e0 a distinguere il reale dal falso, portando a confusione e false credenze<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Da adulti, facciamo fatica a distinguere i contenuti autentici dai falsi generati dall\u2019intelligenza artificiale.<\/span><a href=\"https:\/\/www.nexcess.net\/blog\/humans-struggle-to-spot-ai-generated-content\/\"> <span style=\"font-weight: 400;\">Uno studio recente<\/span><\/a><span style=\"font-weight: 400;\"> ha scoperto che gli adulti intervistati potevano identificare il testo scritto creato dall\u2019intelligenza artificiale il 57% delle volte, ma riuscivano a distinguere le immagini dell\u2019intelligenza artificiale da quelle reali solo il 53% delle volte.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Per i bambini che stanno ancora sviluppando la loro comprensione del mondo e imparando a destreggiarsi in paesaggi informativi complessi, questa sfida \u00e8 ancora pi\u00f9 grande.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se esposti ai deepfake, i bambini potrebbero avere difficolt\u00e0 a distinguere tra ci\u00f2 che \u00e8 reale e ci\u00f2 che \u00e8 inventato. Nel corso del tempo, l\u2019esposizione ripetuta ai deepfake pu\u00f2 indurre i bambini a interiorizzare informazioni false o a sviluppare percezioni distorte della realt\u00e0.<\/span><\/p>\n<h4><b>Potenziale di cyberbullismo, truffe e danni alla reputazione utilizzando la tecnologia Deepfake<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Forse la cosa pi\u00f9 allarmante \u00e8 che i deepfake possono essere utilizzati come armi per prendere di mira direttamente i bambini. Bulli o autori di abusi possono utilizzare la tecnologia per creare contenuti falsi umilianti o compromettenti che presentano le loro vittime, ad esempio posizionando il volto di un bambino sul corpo di un adulto in un&#8217;immagine esplicita.<\/span><a href=\"https:\/\/www.wfsb.com\/2023\/12\/16\/2-students-allegedly-used-classmates-faces-fake-nude-photos-made-me-feel-violated\/\"> <span style=\"font-weight: 400;\">L&#8217;intelligenza artificiale \u00e8 stata utilizzata per creare immagini false di compagni di classe<\/span><\/a><span style=\"font-weight: 400;\"> che danneggiano la reputazione e causano gravi danni.<\/span><\/p>\n<h4><b>Erosione della fiducia nei media e nelle fonti di informazione<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">I nostri figli conoscono gi\u00e0 un mondo in cui vedere non \u00e8 pi\u00f9 credere \u2013 e con l\u2019avvento dei deepfake basati sull\u2019intelligenza artificiale, i bambini potrebbero sviluppare una profonda sfiducia nei confronti dei media e delle fonti di informazione.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mentre faticano a distinguere il vero dal falso, potrebbero mettere in dubbio la credibilit\u00e0 di tutti i contenuti che incontrano, anche quelli provenienti da fonti attendibili come genitori, insegnanti e figure autoritarie.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questa erosione della fiducia pu\u00f2 avere implicazioni di vasta portata per lo sviluppo intellettuale e sociale dei bambini. Ci\u00f2 pu\u00f2 portare a una visione del mondo cinica, in cui i fatti sono costantemente in dubbio e le opinioni sono modellate pi\u00f9 dalla paura e dal sospetto che dall\u2019evidenza e dalla ragione.<\/span><\/p>\n<h3><b>Suggerimenti per aiutare i bambini a identificare i deepfake e i contenuti generati dall&#8217;intelligenza artificiale<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Certo, non tutta l\u2019intelligenza artificiale \u00e8 cattiva! L\u2019intelligenza artificiale ha reso pi\u00f9 semplice che mai la creazione di contenuti educativi su un\u2019ampia gamma di argomenti e ha aperto nuove opportunit\u00e0 di creativit\u00e0 ed espressione. Tuttavia, l\u2019aumento dei deepfake e di altri contenuti generati dall\u2019intelligenza artificiale significa che genitori ed educatori devono essere pi\u00f9 vigili che mai nell\u2019aiutare i bambini a orientarsi in questo complesso panorama mediatico.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ecco alcuni suggerimenti per aiutare i bambini a identificare e comprendere i deepfake e altri contenuti generati dall&#8217;intelligenza artificiale:<\/span><\/p>\n<h4><b>Cerca difetti visivi e incoerenze<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Spiega ai bambini che, sebbene i deepfake possano essere molto convincenti, spesso contengono sottili difetti visivi o incoerenze. Sebbene l\u2019intelligenza artificiale stia migliorando nel nasconderli, \u00e8 ancora abbastanza evidente in molte truffe e deepfake di alto profilo.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Incoraggiali a guardare da vicino video o immagini per individuare segni di movimenti innaturali, illuminazione non corrispondente o sfocatura attorno ai bordi dei volti. Segnala esempi di artefatti visivi, come sfarfallio o distorsione, che possono indicare un deepfake.<\/span><\/p>\n<h4><b>Presta attenzione ai segnali audio<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Aiuta i bambini a capire che l&#8217;audio deepfake pu\u00f2 sembrare leggermente robotico, distorto o innaturale. Incoraggiali ad ascoltare attentamente per pronunce strane, tono di voce incoerente o rumore di fondo che non corrisponde alle immagini.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sottolinea l&#8217;importanza di considerare la qualit\u00e0 audio insieme agli elementi visivi quando si valuta l&#8217;autenticit\u00e0 di un video o di un clip audio. Questo pu\u00f2 essere pi\u00f9 difficile per i bambini pi\u00f9 piccoli, ma i bambini pi\u00f9 grandi possono facilmente capire quando qualcosa sembra &#8220;strano&#8221; in un contenuto o in un media.<\/span><\/p>\n<h4><b>Controllare la fonte e le informazioni sui riferimenti incrociati<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Insegna ai bambini a prestare attenzione ai contenuti provenienti da fonti sconosciute o inaffidabili. Incoraggiali a verificare se il contenuto appare su siti di notizie affidabili o canali ufficiali e, se \u00e8 troppo bello per essere vero, probabilmente lo \u00e8!<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mostra loro come incrociare le informazioni cercando la stessa storia o la stessa affermazione su pi\u00f9 fonti attendibili. Se una notizia o un video non possono essere verificati altrove, potrebbe trattarsi di deepfake o disinformazione.<\/span><\/p>\n<h4><b>Promuovi una mentalit\u00e0 curiosa ma critica<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Il modo migliore per aiutare i bambini a comprendere la tecnologia deepfake \u00e8 promuovere una mentalit\u00e0 curiosa. Incoraggia i bambini ad avvicinarsi ai contenuti online con una sana dose di curioso scetticismo. Insegna loro a porre domande come:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">&#8220;Chi ha creato questo contenuto e perch\u00e9?&#8221;<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">&#8220;Quali prove supportano questa affermazione?&#8221;<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">&#8220;Potrebbe trattarsi di un deepfake o di un contenuto manipolato?&#8221;<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aiutali a capire che solo perch\u00e9 qualcosa sembra o sembra reale non significa necessariamente che lo sia. Rafforzare l\u2019importanza del fact-checking e della verifica delle informazioni prima di accettarle come vere.<\/span><\/p>\n<h4><b>Rimani informato sulle ultime tecnologie deepfake<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Come genitore, rimani aggiornato sugli ultimi progressi nella tecnologia deepfake e sui modi in cui pu\u00f2 essere utilizzata in modo improprio. Segui fonti di notizie tecnologiche affidabili e organizzazioni di sicurezza online per rimanere informato.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Quando possibile, prova a condividere aggiornamenti ed esempi adatti all&#8217;et\u00e0 con i tuoi figli per aiutarli a comprendere il panorama in evoluzione dei contenuti generati dall&#8217;intelligenza artificiale e i suoi potenziali rischi. Ci\u00f2 li aiuter\u00e0 a sentirsi pi\u00f9 preparati a identificare e gestire qualsiasi contenuto discutibile che incontrano online.<\/span><\/p>\n<h3><b>Insegna il coinvolgimento con curiosit\u00e0, non con paura<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">L\u2019intelligenza artificiale \u00e8 qui per restare, ed \u00e8 sicuro dire che i nostri figli probabilmente cresceranno sapendone pi\u00f9 di noi! Ma ci\u00f2 non cambia i rischi posti da attori malvagi che vogliono depredare le popolazioni vulnerabili con strumenti potenti.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Insegnando ai bambini queste abilit\u00e0 pratiche e incoraggiando una mentalit\u00e0 critica, possiamo aiutarli a navigare con sicurezza nel mondo dei deepfake e dei contenuti generati dall\u2019intelligenza artificiale.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ricorda, l&#8217;obiettivo non \u00e8 spaventare i bambini o scoraggiarli dall&#8217;utilizzare la tecnologia, ma piuttosto fornire loro gli strumenti e le conoscenze di cui hanno bisogno per rimanere al sicuro, informati e avere il controllo delle loro esperienze online. Quando possiamo aiutarli a sviluppare curiosit\u00e0 verso la tecnologia e le sue capacit\u00e0 invece che paura, possiamo prepararli al successo nel mondo digitale.<\/span><\/p>\n<p><i><span style=\"font-weight: 400;\">Vuoi saperne di pi\u00f9 sulle tecnologie pi\u00f9 recenti e su come proteggere i bambini online?<\/span><\/i><a href=\"https:\/\/kidslox.com\/nl\/guide-to\/\"> <i><span style=\"font-weight: 400;\">Dai un&#8217;occhiata alle nostre altre guide e risorse su Kidslox<\/span><\/i><\/a><i><span style=\"font-weight: 400;\"> \u2013 e adotta le misure necessarie per creare un ambiente di apprendimento online sicuro e fiorente per la tua famiglia.<\/span><\/i><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>In un mondo in cui la tecnologia avanza rapidamente, i genitori devono affrontare nuove sfide nel proteggere i propri figli dalle minacce emergenti. Una di queste preoccupazioni \u00e8 l\u2019aumento dei deepfake generati dall\u2019intelligenza artificiale: media sintetici in grado di imitare le voci, le immagini e i video di persone reali con una precisione allarmante. Immagina [&hellip;]<\/p>\n","protected":false},"author":7,"featured_media":54763,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[658,676,700],"tags":[],"class_list":["post-54780","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-childrens-digital-literacy-it","category-health-and-safety-it","category-technology-and-parenting-it"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.7 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>AI deepfakes - how can we protect our children? | Kidslox<\/title>\n<meta name=\"description\" content=\"AI generated deepfakes are becoming more and more prevalent in the information space. How should we, (and our kids), react?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI deepfakes - how can we protect our children? | Kidslox\" \/>\n<meta property=\"og:description\" content=\"AI generated deepfakes are becoming more and more prevalent in the information space. How should we, (and our kids), react?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\" \/>\n<meta property=\"og:site_name\" content=\"Kidslox\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/kidslox\" \/>\n<meta property=\"article:published_time\" content=\"2024-03-08T13:43:05+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-11T14:03:48+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1280\" \/>\n\t<meta property=\"og:image:height\" content=\"726\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Brad Bartlett\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@kidslox\" \/>\n<meta name=\"twitter:site\" content=\"@kidslox\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Brad Bartlett\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\"},\"author\":{\"name\":\"Brad Bartlett\",\"@id\":\"https:\/\/kidslox.com\/it\/#\/schema\/person\/c656e1a458327b4dd478ced8ad59f598\"},\"headline\":\"Deepfake AI: come possiamo proteggere i nostri figli?\",\"datePublished\":\"2024-03-08T13:43:05+00:00\",\"dateModified\":\"2024-03-11T14:03:48+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\"},\"wordCount\":2018,\"publisher\":{\"@id\":\"https:\/\/kidslox.com\/it\/#organization\"},\"image\":{\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg\",\"articleSection\":[\"Alfabetizzazione digitale dei bambini\",\"Salute e sicurezza\",\"Tecnologia e genitorialit\u00e0\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\",\"url\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\",\"name\":\"AI deepfakes - how can we protect our children? | Kidslox\",\"isPartOf\":{\"@id\":\"https:\/\/kidslox.com\/it\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg\",\"datePublished\":\"2024-03-08T13:43:05+00:00\",\"dateModified\":\"2024-03-11T14:03:48+00:00\",\"description\":\"AI generated deepfakes are becoming more and more prevalent in the information space. How should we, (and our kids), react?\",\"breadcrumb\":{\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage\",\"url\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg\",\"contentUrl\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg\",\"width\":1280,\"height\":726,\"caption\":\"Deepfakes\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/kidslox.com\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Deepfake AI: come possiamo proteggere i nostri figli?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/kidslox.com\/it\/#website\",\"url\":\"https:\/\/kidslox.com\/it\/\",\"name\":\"Kidslox\",\"description\":\"Parental control app for iPhone and Android. Join millions of parents using the best parental control apps for iPhone parental control, Android &amp; more\",\"publisher\":{\"@id\":\"https:\/\/kidslox.com\/it\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/kidslox.com\/it\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/kidslox.com\/it\/#organization\",\"name\":\"Kidslox, Inc.\",\"url\":\"https:\/\/kidslox.com\/it\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/kidslox.com\/it\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2021\/11\/kidslox-logo.png\",\"contentUrl\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2021\/11\/kidslox-logo.png\",\"width\":150,\"height\":28,\"caption\":\"Kidslox, Inc.\"},\"image\":{\"@id\":\"https:\/\/kidslox.com\/it\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/kidslox\",\"https:\/\/x.com\/kidslox\",\"https:\/\/www.instagram.com\/kidslox\/\",\"https:\/\/www.linkedin.com\/company\/kidslox\",\"https:\/\/www.youtube.com\/channel\/UCPOp4Py6LY9GdJyIvd1Z2Vw\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/kidslox.com\/it\/#\/schema\/person\/c656e1a458327b4dd478ced8ad59f598\",\"name\":\"Brad Bartlett\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/kidslox.com\/it\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2026\/02\/Brad-Bartlett-96x96.jpg\",\"contentUrl\":\"https:\/\/kidslox.com\/wp-content\/uploads\/2026\/02\/Brad-Bartlett-96x96.jpg\",\"caption\":\"Brad Bartlett\"},\"description\":\"Brad Bartlett is a professional copywriter and author, with years of experience telling impactful stories online. He has a Bachelor of Arts in Communications &amp; Journalism and a Master of Divinity, but more importantly for us here at Kidslox, he's a dad of three, with hands on experience dealing with the challenges of modern parenting.\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"AI deepfakes - how can we protect our children? | Kidslox","description":"AI generated deepfakes are becoming more and more prevalent in the information space. How should we, (and our kids), react?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/","og_locale":"it_IT","og_type":"article","og_title":"AI deepfakes - how can we protect our children? | Kidslox","og_description":"AI generated deepfakes are becoming more and more prevalent in the information space. How should we, (and our kids), react?","og_url":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/","og_site_name":"Kidslox","article_publisher":"https:\/\/www.facebook.com\/kidslox","article_published_time":"2024-03-08T13:43:05+00:00","article_modified_time":"2024-03-11T14:03:48+00:00","og_image":[{"width":1280,"height":726,"url":"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg","type":"image\/jpeg"}],"author":"Brad Bartlett","twitter_card":"summary_large_image","twitter_creator":"@kidslox","twitter_site":"@kidslox","twitter_misc":{"Written by":"Brad Bartlett","Est. reading time":"10 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#article","isPartOf":{"@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/"},"author":{"name":"Brad Bartlett","@id":"https:\/\/kidslox.com\/it\/#\/schema\/person\/c656e1a458327b4dd478ced8ad59f598"},"headline":"Deepfake AI: come possiamo proteggere i nostri figli?","datePublished":"2024-03-08T13:43:05+00:00","dateModified":"2024-03-11T14:03:48+00:00","mainEntityOfPage":{"@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/"},"wordCount":2018,"publisher":{"@id":"https:\/\/kidslox.com\/it\/#organization"},"image":{"@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage"},"thumbnailUrl":"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg","articleSection":["Alfabetizzazione digitale dei bambini","Salute e sicurezza","Tecnologia e genitorialit\u00e0"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/","url":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/","name":"AI deepfakes - how can we protect our children? | Kidslox","isPartOf":{"@id":"https:\/\/kidslox.com\/it\/#website"},"primaryImageOfPage":{"@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage"},"image":{"@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage"},"thumbnailUrl":"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg","datePublished":"2024-03-08T13:43:05+00:00","dateModified":"2024-03-11T14:03:48+00:00","description":"AI generated deepfakes are becoming more and more prevalent in the information space. How should we, (and our kids), react?","breadcrumb":{"@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#primaryimage","url":"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg","contentUrl":"https:\/\/kidslox.com\/wp-content\/uploads\/2024\/03\/Deepfakes.jpg","width":1280,"height":726,"caption":"Deepfakes"},{"@type":"BreadcrumbList","@id":"https:\/\/kidslox.com\/it\/guide-to\/ai-deepfakes\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/kidslox.com"},{"@type":"ListItem","position":2,"name":"Deepfake AI: come possiamo proteggere i nostri figli?"}]},{"@type":"WebSite","@id":"https:\/\/kidslox.com\/it\/#website","url":"https:\/\/kidslox.com\/it\/","name":"Kidslox","description":"Parental control app for iPhone and Android. Join millions of parents using the best parental control apps for iPhone parental control, Android &amp; more","publisher":{"@id":"https:\/\/kidslox.com\/it\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/kidslox.com\/it\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/kidslox.com\/it\/#organization","name":"Kidslox, Inc.","url":"https:\/\/kidslox.com\/it\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/kidslox.com\/it\/#\/schema\/logo\/image\/","url":"https:\/\/kidslox.com\/wp-content\/uploads\/2021\/11\/kidslox-logo.png","contentUrl":"https:\/\/kidslox.com\/wp-content\/uploads\/2021\/11\/kidslox-logo.png","width":150,"height":28,"caption":"Kidslox, Inc."},"image":{"@id":"https:\/\/kidslox.com\/it\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/kidslox","https:\/\/x.com\/kidslox","https:\/\/www.instagram.com\/kidslox\/","https:\/\/www.linkedin.com\/company\/kidslox","https:\/\/www.youtube.com\/channel\/UCPOp4Py6LY9GdJyIvd1Z2Vw"]},{"@type":"Person","@id":"https:\/\/kidslox.com\/it\/#\/schema\/person\/c656e1a458327b4dd478ced8ad59f598","name":"Brad Bartlett","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/kidslox.com\/it\/#\/schema\/person\/image\/","url":"https:\/\/kidslox.com\/wp-content\/uploads\/2026\/02\/Brad-Bartlett-96x96.jpg","contentUrl":"https:\/\/kidslox.com\/wp-content\/uploads\/2026\/02\/Brad-Bartlett-96x96.jpg","caption":"Brad Bartlett"},"description":"Brad Bartlett is a professional copywriter and author, with years of experience telling impactful stories online. He has a Bachelor of Arts in Communications &amp; Journalism and a Master of Divinity, but more importantly for us here at Kidslox, he's a dad of three, with hands on experience dealing with the challenges of modern parenting."}]}},"_links":{"self":[{"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/posts\/54780","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/comments?post=54780"}],"version-history":[{"count":1,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/posts\/54780\/revisions"}],"predecessor-version":[{"id":54781,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/posts\/54780\/revisions\/54781"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/media\/54763"}],"wp:attachment":[{"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/media?parent=54780"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/categories?post=54780"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/kidslox.com\/it\/wp-json\/wp\/v2\/tags?post=54780"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}