Data poisoning la minaccia invisibile che insegna a mentire all intelligenza artificiale
Il data poisoning è una minaccia informatica che sabota i sistemi di intelligenza artificiale durante la fase di addestramento. Inserendo dati corrotti o falsi, gli aggressori insegnano ai modelli AI a commettere errori sistematici, difficili da rilevare. Incidenti come la compromissione di ImageNet di Google DeepMind dimostrano la gravità del rischio, minacciando settori critici e la fiducia nella tecnologia.



