
Ingannare l’IA con gli adversarial attacks
No se pudo agregar al carrito
Add to Cart failed.
Error al Agregar a Lista de Deseos.
Error al eliminar de la lista de deseos.
Error al añadir a tu biblioteca
Error al seguir el podcast
Error al dejar de seguir el podcast
-
Narrado por:
-
De:
Acerca de esta escucha
L'intelligenza artificiale sta cambiando il nostro mondo, ma con questa rivoluzione emergono nuovi rischi legati alla sicurezza dei sistemi IA. Gli adversarial attacks rappresentano una minaccia concreta e spesso sottovalutata: manipolazioni sottili dei dati di input che possono ingannare un'IA, facendole produrre risultati completamente errati. A differenza degli attacchi informatici tradizionali, per compromettere un sistema di intelligenza artificiale basta manipolare i dati su cui il sistema opera, spesso con modifiche impercettibili all'occhio umano. In questa puntata analizziamo come funzionano questi attacchi, quali sono i rischi per settori critici come la guida autonoma e la medicina e quali strategie di difesa possiamo adottare per proteggere i sistemi di intelligenza artificiale.
Nella sezione delle notizie parliamo di Threads che si apre maggiormente al fediverso, della nuova mappa stellare della Galassia dello Scultore ottenuta dal Very Large Telescope e infine di YouTube che sta intensificando la sua guerra contro gli ad-blocker.
--Indice--
00:00 - Introduzione
00:57 - Threads si apre al fediverso (TheVerge.com, Luca Martinelli)
02:21 - La nuova mappa stellare della Galassia dello Scultore (HDBlog.it, Matteo Gallo)
03:27 - YouTube rallenta i video agli utenti con ad-blocker (DDay.it, Davide Fasoli)
04:46 - Ingannare l’IA con gli adversarial attacks (Luca Martinelli)
15:26 - Conclusione
--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E25#testo
--Contatti--
• www.dentrolatecnologia.it
• Instagram (@dentrolatecnologia)
• Telegram (@dentrolatecnologia)
• YouTube (@dentrolatecnologia)
• redazione@dentrolatecnologia.it
--Brani--
• Ecstasy by Rabbit Theft
• Redemption by Max Brhon