Ingannare l’IA con gli adversarial attacks Podcast Por  arte de portada

Ingannare l’IA con gli adversarial attacks

Ingannare l’IA con gli adversarial attacks

Escúchala gratis

Ver detalles del espectáculo

Acerca de esta escucha

L'intelligenza artificiale sta cambiando il nostro mondo, ma con questa rivoluzione emergono nuovi rischi legati alla sicurezza dei sistemi IA. Gli adversarial attacks rappresentano una minaccia concreta e spesso sottovalutata: manipolazioni sottili dei dati di input che possono ingannare un'IA, facendole produrre risultati completamente errati. A differenza degli attacchi informatici tradizionali, per compromettere un sistema di intelligenza artificiale basta manipolare i dati su cui il sistema opera, spesso con modifiche impercettibili all'occhio umano. In questa puntata analizziamo come funzionano questi attacchi, quali sono i rischi per settori critici come la guida autonoma e la medicina e quali strategie di difesa possiamo adottare per proteggere i sistemi di intelligenza artificiale.
Nella sezione delle notizie parliamo di Threads che si apre maggiormente al fediverso, della nuova mappa stellare della Galassia dello Scultore ottenuta dal Very Large Telescope e infine di YouTube che sta intensificando la sua guerra contro gli ad-blocker.

--Indice--
00:00 - Introduzione
00:57 - Threads si apre al fediverso (TheVerge.com, Luca Martinelli)
02:21 - La nuova mappa stellare della Galassia dello Scultore (HDBlog.it, Matteo Gallo)
03:27 - YouTube rallenta i video agli utenti con ad-blocker (DDay.it, Davide Fasoli)
04:46 - Ingannare l’IA con gli adversarial attacks (Luca Martinelli)
15:26 - Conclusione

--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E25#testo

--Contatti--
• www.dentrolatecnologia.it
• Instagram (@dentrolatecnologia)
• Telegram (@dentrolatecnologia)
• YouTube (@dentrolatecnologia)
• redazione@dentrolatecnologia.it

--Brani--
• Ecstasy by Rabbit Theft
• Redemption by Max Brhon

Todavía no hay opiniones