Valtiberina Online - Un portale Wineuropa |
Newsletter WineuropaTecnologia & Comunicazione Una nuova ricerca del MIT ha dimostrato che è possibile indurre una IA a identificare erroneamente gli oggetti applicando delle perturbazioniGoogle, la tartaruga diventa una pistolaRoma - In molti compiti i classificatori basati sulle reti neurali superano spesso il livello di accuratezza degli esseri umani, ma al momento sono suscettibili all'adversarial attack: un attacco che consiste nel sottoporre all'AI input attentamente perturbati che la inducono a modificare il suo riconoscimento da quello corretto ad uno scelto arbitrariamente.
tartaruga Durante gli esperimenti gli studenti hanno creato due immagini 3D, una tartaruga e una palla da baseball, con lo scopo di ingannare il classificatore di immagini di Google Inception-v3 reso disponibile gratuitamente ai ricercatori.
Gli adversarial attack di questo tipo non sono ancora un pericolo imminente per il grande pubblico; sono efficaci limitatamente a certe circostanze, ma sono comunque un segno della non infallibilità delle AI che, se non risolti, potrebbero in futuro creare danni in molti campi tra cui le tecniche di riconoscimento facciale e i sistemi di guida autonoma. Ilaria Di Maro
Inserita il : 09-11-2017 da wineuropa Invia il tuo commentoInserisci qua il tuo commento |
|
Attenzione: tutti i campi sono obbligatori.