fbpx

In occasione di USENIX Security, il tech team della Cornell University ha presentato un paper nel quale illustra una nuovo modo per modificare i risultati di un sistema di machine learning senza dover attaccare l’infrastruttura aziendale